Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 195
Temps de recherche: 0.0507s

père-fille

Notre pauvre enfant, Annie, née à Gower St le 2 mars 1841 est décédée à Malvern le 23 avril 1851 à midi. J'écris ces quelques pages, car je pense que dans les années à venir, si nous vivons, les impressions que je viens d'écrire me rappelleront plus vivement ses principales caractéristiques. De quelque point de vue que je la regarde, le trait principal de son caractère qui s'impose immédiatement à moi est sa joie de vivre tempérée par deux autres caractéristiques, à savoir sa sensibilité, qui aurait pu facilement passer inaperçue aux yeux d'un étranger, et sa grande affection. Sa joie et son esprit animal rayonnaient sur tout son visage et rendaient chacun de ses mouvements élastiques, pleins de vie et de vigueur. C'était un plaisir et une joie de la voir. Son cher visage se dresse maintenant devant moi, comme elle avait l'habitude de descendre les escaliers en courant avec une pincée de tabac à priser volée pour moi, son attitude entière rayonnant du plaisir de donner du plaisir. Même lorsqu'elle jouait avec ses cousins et que sa joie se transformait presque en turbulence, un seul regard de ma part, non pas de mécontentement (car je remercie Dieu de n'en avoir presque jamais jeté sur elle), mais de manque de sympathie, modifiait pendant quelques minutes toute sa physionomie. Cette sensibilité au moindre reproche la rendait très facile à gérer et très bonne : elle n'avait presque jamais besoin d'être prise en défaut et n'était jamais punie de quelque manière que ce soit. Sa sensibilité e manifesta très tôt dans la vie, en pleurant amèrement sur toute histoire un tant soit peu mélancolique, ou en se séparant d'Emma, même pour un court laps de temps. Une fois, alors qu'elle était très jeune, elle s'est exclamée "Oh Mamma, que ferions-nous si tu venais à mourir".

L'autre point de son caractère, qui rendait sa joie de vivre et son esprit si délicieux, était sa forte affection, qui était d'une nature très attachante et caressante. Lorsqu'elle était encore un bébé, cela se manifestait par le fait qu'elle ne pouvait jamais se passer de toucher Emma lorsqu'elle était au lit avec elle, et dernièrement, lorsqu'elle était mal en point, elle caressait pendant un certain temps l'un des bras d'Emma. Lorsqu'elle était très malade, le fait qu'Emma s'allonge à côté d'elle semblait l'apaiser d'une manière tout à fait différente de ce qu'elle aurait fait pour n'importe lequel de nos autres enfants. De même, elle passait presque toujours une demi-heure à arranger mes cheveux, à les "rendre", comme elle disait, "beaux", ou à lisser, le pauvre chéri, mon col ou mes manchettes, bref à me caresser. Elle aimait être embrassée ; en fait, chaque expression de son visage rayonnait d'affection et de bonté, et toutes ses habitudes étaient influencées par sa disposition affectueuse.

Outre sa gaieté ainsi tempérée, elle était dans ses manières remarquablement cordiale, franche, ouverte, d'un naturel direct et sans aucune nuance de réserve. Tout son esprit était pur et transparent. On avait l'impression de la connaître parfaitement et de pouvoir lui faire confiance : J'ai toujours pensé que, quoi qu'il arrive, nous aurions eu dans notre vieillesse au moins une âme aimante, que rien n'aurait pu changer. Elle était généreuse, belle et sans méfiance dans toute sa conduite ; elle était exempte d'envie et de jalousie ; elle avait bon caractère et n'était jamais passionnée. Elle était donc très populaire dans toute la maison, les étrangers l'aimaient et l'appréciaient rapidement. La manière même dont elle serrait la main de ses connaissances témoignait de sa cordialité.

Sa silhouette et son apparence étaient clairement influencées par son caractère : ses yeux brillaient, elle souriait souvent, son pas était élastique et ferme, elle se tenait droite et rejetait souvent la tête un peu en arrière, comme si elle défiait le monde dans sa joie de vivre. Pour son âge, elle était très grande, pas mince et forte. Ses cheveux étaient d'un beau brun et longs ; son teint légèrement brun ; ses yeux, gris foncé ; ses dents grandes et blanches. Le Daguerrotype lui ressemble beaucoup, mais l'expression lui fait entièrement défaut : ayant été fait deux ans plus tard, son visage s'était allongé et était devenu plus beau. Tous ses mouvements étaient vigoureux, actifs et généralement gracieux : llorsque nous faisions le tour du chemin de sable ensemble, bien que je marche vite, elle avait souvent l'habitude de me précéder en pirouettant de la manière la plus élégante, son cher visage brillant tout le temps, avec les sourires les plus doux.

De temps en temps, elle avait une attitude coquette envers moi, dont le souvenir est charmant : elle utilisait souvent un langage exagéré, et lorsque je la questionnais en exagérant ce qu'elle avait dit, je revois clairement le petit mouvement de tête et l'exclamation "Oh Papa, quelle honte". - Elle avait un intérêt vraiment féminin pour l'habillement et était toujours soignée : une satisfaction non dissimulée, échappant en quelque sorte à toute teinte de vanité, rayonnait sur son visage lorsqu'elle avait mis la main sur un ruban ou un mouchoir gai de sa mère. Un jour, elle s'est habillée d'une robe de soie, d'un bonnet, d'un châle et de gants d'Emma, ressemblant à une petite vieille femme, mais avec sa couleur exacerbée, ses yeux pétillants et ses sourires bridés, elle était, je m'en rappelle, tout à fait charmante.

Elle admirait cordialement les plus jeunes enfants ; combien de fois l'ai-je entendue déclarer avec emphase. "Quel petit canard cette Betty, n'est-ce pas ?

Elle était très adroite, faisant tout proprement avec ses mains : elle apprenait facilement la musique, et j'en suis sûr, en observant son visage quand elle écoutait les autres jouer, qu'elle avait un goût prononcé pour la musique. Elle avait un certain goût pour le dessin, et pouvait copier les visages très joliment. Elle dansait bien et aimait beaucoup cela. Elle aimait la lecture, mais ne manifestait aucun goût particulier. Elle avait une habitude singulière qui, je présume, aurait fini par se transformer en une activité quelconque, à savoir un grand plaisir à chercher des mots ou des noms dans les dictionnaires, les annuaires, les gazetiers et, dans ce dernier cas, à trouver les lieux sur la carte : de même, elle prenait un intérêt étrange à comparer mot à mot deux éditions du même livre ; et encore, elle passait des heures à comparer les couleurs de n'importe quel objet avec un de mes livres, dans lequel toutes les couleurs sont classées et nommées.

Sa santé s'est légèrement détériorée pendant environ neuf mois avant sa dernière maladie ; mais elle ne lui a donné qu'occasionnellement un de l'inconfort : dans ces moments-là, elle n'a jamais été le moins du monde fâchée, irritable ou impatiente ; c'était merveilleux de voir, à mesure que l'inconfort passait, avec quelle rapidité ses esprits élastiques lui rendaient sa gaieté et son bonheur. Pendant la dernière courte maladie, sa conduite fut tout simplement angélique ; elle ne s'est jamais plainte, ne s'est jamais énervée, a toujours eu de la considération pour les autres et a été reconnaissante de la manière la plus douce et la plus pathétique pour tout ce qui a été fait pour elle. Lorsqu'elle était si épuisée qu'elle pouvait à peine parler, elle louait tout ce qu'on lui donnait, et disait qu'un thé "était merveilleusement bon". Lorsque je lui ai donné de l'eau, elle m'a dit : "Je vous remercie beaucoup" ; et je crois que ce sont là les derniers mots précieux que ses chères lèvres m'ont jamais adressés.

Mais en regardant en arrière, c'est toujours l'esprit de joie qui se dresse devant moi comme son emblème et sa caractéristique : elle semblait formée pour vivre une vie de bonheur : ses esprits étaient toujours retenus par une sensibilité, une peur de déplaire à ceux qu'elle aimait, et son tendre amour ne cessait jamais de se manifester par des caresses et tous les autres petits actes d'affection.

Nous avons perdu la joie du ménage et le réconfort de notre vieillesse : elle devait savoir à quel point nous l'aimions ; oh, si elle pouvait maintenant savoir à quel point nous aimons encore et aimerons toujours son cher visage joyeux, profondément et tendrement. Bénédictions pour elle.

Le 30 avril 1851

Auteur: Darwin Charles

Info: Il a écrit ce mémorial pour sa fille une semaine après sa mort

[ deuil ] [ eulogie ]

 

Commentaires: 0

Ajouté à la BD par miguel

furtifs méta-moteurs

Découvrez les formes modulaires, la " cinquième opération fondamentale " des mathématiques

Les formes modulaires sont l’un des objets les plus beaux et les plus mystérieux des mathématiques. Quels sont-ils ?

" Il existe cinq opérations fondamentales en mathématiques ", aurait déclaré le mathématicien allemand Martin Eichler. " Addition, soustraction, multiplication, division et formes modulaires. "

Une partie du gag bien sûr, c’est que l’un d’entre eux n’est pas comme les autres. Les formes modulaires sont des fonctions beaucoup plus compliquées et énigmatiques, et les étudiants ne les rencontrent généralement pas avant leurs études supérieures. Mais " il y a probablement moins de domaines mathématiques où ils n'ont pas d'applications que là où ils en ont ", a déclaré Don Zagier , mathématicien à l'Institut de mathématiques Max Planck de Bonn, en Allemagne. Chaque semaine, de nouveaux articles étendent leur portée à la théorie des nombres, à la géométrie, à la combinatoire, à la topologie, à la cryptographie et même à la théorie des cordes.

Elles sont souvent décrites comme des fonctions qui satisfont des symétries si frappantes et si élaborées qu’elles ne devraient pas être possibles. Les propriétés associées à ces symétries rendent les formes modulaires extrêmement puissantes. C’est ce qui a fait d’elles des acteurs clés dans la preuve historique du dernier théorème de Fermat en 1994. C'est ce qui les a placés au cœur des travaux plus récents sur l'emballage des sphères . Et c'est ce qui les rend désormais cruciales pour le développement continu d'une " théorie mathématique du tout " Nommée programme de Langlands .

Mais que sont-elles ?

Symétries infinies

Pour comprendre une forme modulaire, il est utile de réfléchir d’abord à des symétries plus familières.

(...)

"Les formes modulaires ressemblent aux fonctions trigonométriques, mais sous stéroïdes", a-t-il ajouté. Ils satisfont une infinité de symétries " cachées ".

L'univers complexe

Les fonctions ne peuvent pas faire grand-chose lorsqu'elles sont définies en termes de nombres réels, c'est-à-dire des valeurs qui peuvent être exprimées sous forme décimale conventionnelle. En conséquence, les mathématiciens se tournent souvent vers les nombres complexes, qui peuvent être considérés comme des paires de nombres réels. Tout nombre complexe est décrit en termes de deux valeurs : une composante " réelle " et une composante " imaginaire ", qui est un nombre réel multiplié par la racine carrée de −1 (que les mathématiciens écrivent comme je).

Tout nombre complexe peut donc être représenté comme un point dans un plan à deux dimensions.

Il est difficile de visualiser les fonctions des nombres complexes, c’est pourquoi les mathématiciens se tournent souvent vers la couleur. Par exemple, vous pouvez colorer le plan complexe pour qu'il ressemble à une roue arc-en-ciel. La couleur de chaque point correspond à son angle en coordonnées polaires. Directement à droite du centre, là où les points ont un angle de 0 degré, vous obtenez du rouge. À 90 degrés, ou vers le haut, les points sont de couleur vert vif. Et ainsi de suite. Enfin, les courbes de niveau marquent les changements de taille ou d'ampleur, comme sur une carte topographique.

(...) (partie supprimée, voir pour plus sur le lien qui précède)

Le domaine fondamental

Pour ce faire, il est utile d’essayer de simplifier la façon dont nous envisageons ces fonctions complexes.

En raison des symétries de la forme modulaire, vous pouvez calculer la fonction entière sur la base d'un seul petit groupe d'entrées, situé dans une région du plan appelée domaine fondamental. Cette région ressemble à une bande montant à partir de l’axe horizontal avec un trou semi-circulaire découpé dans son fond.

Si vous savez comment la fonction se comporte là-bas, vous saurez ce qu'elle fait partout ailleurs. Voici comment:

Des transformations spéciales copient un fragment du plan complexe, appelé domaine fondamental, dans une infinité d’autres régions. Puisqu’une forme modulaire est définie en termes de ces transformations, si vous savez comment elle se comporte dans le domaine fondamental, vous pouvez facilement comprendre comment elle se comporte

(...) (partie supprimée, voir liens précédents pour plus). 

Espaces contrôlés

Dans les années 1920 et 1930, le mathématicien allemand Erich Hecke a développé une théorie plus approfondie autour des formes modulaires. Surtout, il s’est rendu compte qu’elles existaient dans certains espaces – des espaces avec des dimensions spécifiques et d’autres propriétés. Il a compris comment décrire concrètement ces espaces et les utiliser pour relier différentes formes modulaires entre elles.

Cette prise de conscience a inspiré de nombreuses mathématiques des XXe et XXIe siècles.

Pour comprendre comment, considérons d’abord une vieille question : de combien de façons peut-on écrire un entier donné comme la somme de quatre carrés ? Il n’y a qu’une seule façon d’écrire zéro, par exemple, alors qu’il existe huit façons d’exprimer 1, 24 façons d’exprimer 2 et 32 ​​façons d’exprimer 3. Pour étudier cette séquence — 1, 8, 24, 32 et ainsi de suite — les mathématiciens l'ont codé dans une somme infinie appelée fonction génératrice :

1+8q+24q2+32q3+24q4+48q5+…

Il n'existait pas nécessairement de moyen de connaître le coefficient de, disons, q174 devrait être – c’était précisément la question à laquelle ils essayaient de répondre. Mais en convertissant la séquence en fonction génératrice, les mathématiciens pourraient appliquer des outils issus du calcul et d’autres domaines pour en déduire des informations. Ils pourraient, par exemple, trouver un moyen d’approcher la valeur de n’importe quel coefficient.

Mais il s’avère que si la fonction génératrice est une forme modulaire, vous pouvez faire bien mieux : vous pouvez mettre la main sur une formule exacte pour chaque coefficient.

"Si vous savez qu'il s'agit d'une forme modulaire, alors vous savez tout", a déclaré Jan Bruinier de l'Université technique de Darmstadt en Allemagne.

En effet, les symétries infinies de la forme modulaire ne sont pas seulement belles à regarder : " elles sont si contraignantes ", a déclaré Larry Rolen de l'Université Vanderbilt, qu'elles peuvent être transformées en " un outil pour prouver automatiquement les congruences et les identités entre des choses. "

Les mathématiciens et les physiciens codent souvent des questions intéressantes en générant des fonctions. Ils voudront peut-être compter le nombre de points sur des courbes spéciales ou le nombre d’états dans certains systèmes physiques. "Si nous avons de la chance, alors ce sera une forme modulaire", a déclaré Claudia Alfes-Neumann , mathématicienne à l'université de Bielefeld en Allemagne. Cela peut être très difficile à prouver, mais si vous le pouvez, alors " la théorie des formes modulaires est si riche qu’elle vous offre des tonnes de possibilités pour étudier ces coefficients [de séries] ".

Blocs de construction

Toute forme modulaire va paraître très compliquée. Certaines des plus simples – qui sont utilisées comme éléments de base pour d’autres formes modulaires – sont appelées séries Eisenstein.

Vous pouvez considérer une série d’Eisenstein comme une somme infinie de fonctions. Pour déterminer chacune de ces fonctions, utilisez les points sur une grille 2D infinie :

(...) (partie images et schémas supprimée, voir liens pour plus. )

Le jeu continue

L'étude des formes modulaires a conduit à un flot de triomphes mathématiques. Par exemple, des travaux récents sur l'empilement de sphères, pour lesquels la mathématicienne ukrainienne Maryna Viazovska a remporté la médaille Fields l'année dernière , ont utilisé des formes modulaires. " Quand j'ai vu ça, j'ai été assez surprise ", a déclaré Bruinier. " Mais d'une manière ou d'une autre, ça marche. "

Les formes modulaires se sont révélées liées à un objet algébrique important appelé groupe de monstres. Elles ont été utilisées pour construire des types spéciaux de réseaux appelés graphes d'expansion, qui apparaissent en informatique, en théorie des communications et dans d'autres applications. Ils ont permis d'étudier des modèles potentiels d'interactions de particules en théorie des cordes et en physique quantique.

Le plus célèbre peut-être est que la preuve du dernier théorème de Fermat de 1994 reposait sur des formes modulaires. Le théorème, largement considéré comme l'un des problèmes les plus importants de la théorie des nombres, stipule qu'il n'existe pas trois entiers non nuls a , b et c qui satisfont à l'équation an+bn=cn si est un nombre entier supérieur à 2. Le mathématicien Andrew Wiles l'a prouvé en supposant le contraire – qu'une solution à l'équation existe – puis en utilisant des formes modulaires pour montrer qu'une telle hypothèse doit conduire à une contradiction.

Il a d’abord utilisé sa solution supposée pour construire un objet mathématique appelé courbe elliptique. Il a ensuite montré qu'on peut toujours associer une forme modulaire unique à une telle courbe. Cependant, la théorie des formes modulaires dictait que dans ce cas, cette forme modulaire ne pouvait pas exister. "C'est trop beau pour être vrai", a déclaré Voight. Ce qui signifiait, à son tour, que la solution supposée ne pouvait pas exister – confirmant ainsi le dernier théorème de Fermat.

Non seulement cela a résolu un problème vieux de plusieurs siècles ; cela a également permis de mieux comprendre les courbes elliptiques, qui peuvent être difficiles à étudier directement (et qui jouent un rôle important dans la cryptographie et les codes correcteurs d'erreurs).

Cette démonstration a également mis en lumière un pont entre la géométrie et la théorie des nombres. Ce pont a depuis été élargi dans le programme Langlands,  un plus grand ensemble de connexions entre les deux domaines – et sujet d'un des efforts de recherche centraux des mathématiques contemporaines. Les formes modulaires ont également été généralisées dans d'autres domaines, où leurs applications potentielles commencent tout juste à être reconnues.

Elles continuent d’apparaître partout en mathématiques et en physique, parfois de manière assez mystérieuse. "Je regarde dans un article sur les trous noirs", a déclaré Steve Kudla de l'Université de Toronto, "et j'y trouve des formes modulaires qui sont mes amies. Mais je ne sais pas pourquoi elles  sont là.

"D'une manière ou d'une autre", a-t-il ajouté, "les formes modulaires capturent certaines des symétries les plus fondamentales du monde".



 

Auteur: Internet

Info: https://www.quantamagazine.org, Jordana Cepelewicz, 21 septembre 2023

[ ultracomplexité ]

 
Commentaires: 1
Ajouté à la BD par miguel

religions

Luther était-il antisémite ?
Paru en 1543, "Des Juifs et de leurs mensonges" est traduit pour la première fois en français. Le texte, resté jusqu'à présent inédit en français, est un brûlot contre les Juifs, alors que le fondateur de la Réforme avait d'abord pris leur défense. Comment expliquer ce revirement? Et quelles en furent les conséquences?
- BibliObs. L'antisémitisme de Luther est régulièrement évoqué, mais on ne disposait pas en France de la traduction de son principal libelle sur le sujet: "Des juifs et de leurs mensonges". Qu'y a-t-il exactement dans ce texte?
- Pierre Savy. Comme l'indique le titre du livre, il s'agit de dénoncer les "mensonges" des Juifs, à commencer par le mensonge le plus scandaleux aux yeux de Luther, car il porte sur le trésor précieux entre tous que les Juifs ont reçu de Dieu: la Bible. La tradition chrétienne affirme, en tout cas jusqu'au XXe siècle, que la lecture juive de la Bible juive (l'"Ancien Testament") est fausse parce que, plus ou moins délibérément, elle refuse la lecture christologique de la Bible, qui permet de voir dans ces textes l'annonce de la venue de Jésus comme messie.
C'est donc un livre contre le judaïsme et "contre les Juifs", sans aucun doute, mais il n'est pas adressé aux Juifs: Luther met en garde les "Allemands", c'est-à-dire les chrétiens de son temps, contre une politique de tolérance à l'égard des communautés juives.
Il dénonce les "vantardises" des Juifs (leur lignage, le lien qu'ils entendent instaurer avec Dieu par la circoncision, la détention de la Loi et leur droit sur une terre) et s'efforce par un travail exégétique d'établir le caractère messianique de Jésus. Il expose les soi-disant "calomnies" juives sur Jésus et Marie, colportant au passage diverses superstitions médiévales, par exemple les crimes rituels prétendument perpétrés par les Juifs.
Dans la dernière partie du volume, la plus souvent citée, il appelle à faire cesser les agissements condamnables des Juifs: l'usure, qui vide le pays de ses richesses, le blasphème, les nuisances diverses. Pour cela, il prône une politique d'éradication violente (il conseille ainsi à de nombreuses reprises d'incendier les synagogues), voire l'expulsion, même si ce mot n'est pas présent dans le livre de Luther : "Il faut que nous soyons séparés d'eux et
- Dans quel contexte Luther en vient-il à écrire de telles choses?
- Le livre est publié en 1543, trois ans avant la mort du réformateur. On est loin des débuts flamboyants de sa vie: il avait publié les fameuses "thèses" qui avaient lancé la Réforme en 1517, et ses plus grands textes dans les années 1520. "Des Juifs et de leurs mensonges" s'inscrit dans les années de consolidation et de structuration par Luther d'une Église et d'une société protestantes.
Ce sont aussi des années d'inquiétude face à l'apparition de déviances internes à la Réforme, comme les anabaptistes ou les sabbatariens, qui ont poussé la relecture de l'Ancien Testament jusqu'à observer, par exemple, le repos du shabbat. Ces sectes, dont l'Église de Dieu et l'Église adventiste du Septième jour sont les héritières contemporaines, Luther les considère comme "judaïsantes".
Au même moment, la saison des expulsions des Juifs d'Europe occidentale s'achève: il n'y en reste plus guère, sinon dans les ghettos d'Italie et dans quelques localités du monde germanique. Ce traité et deux autres non moins anti-judaïques de la même année 1543, "Du nom ineffable et de la lignée du Christ" et "Des dernières paroles de David", illustrent ce que la plupart des biographes a décrit comme un revirement dans l'attitude de Luther à l'égard des Juifs.
D'abord plutôt bienveillant envers eux et convaincu de sa capacité de les convertir (il écrit "Que Jésus-Christ est né juif" en 1523, un traité autrement plus sympathique que "Des Juifs et de leurs mensonges"), il s'oppose aux persécutions dont ils sont l'objet. Il est même accusé de "judaïser". Mais son objectif reste la conversion et il finit par en rabattre, déçu qu'il est par leur obstination dans leur foi. En vieillissant, il développe une haine obsessionnelle contre les Juifs, il parle souvent d'eux dans ses "Propos de table" et, trois jours avant de mourir, il prêche encore contre eux.
- Quelle est la place de cet antisémitisme dans la pensée de Luther?
- On pourrait répondre en faisant valoir que, matériellement, les pages antisémites de Luther constituent une part réduite de son oeuvre, il est vrai très abondante; et qu'elles ne sont pas plus violentes que celles où il vise d'autres groupes qui font eux aussi l'objet de sa haine ("papistes", princes, fanatiques, Turcs, etc.). Mais cela ne répond pas vraiment sur le fond.
On pourrait répondre aussi, et ce serait déjà un peu plus convaincant, qu'un luthéranisme sans antisémitisme est bien possible: des millions de luthériens en donnent l'exemple chaque jour. L'antisémitisme n'est donc pas central dans l'édifice théologique luthérien. Néanmoins, les choses sont plus compliquées: sans être inexpugnable, l'hostilité au judaïsme se niche profondément dans la pensée de Luther.
Comme les catholiques de son temps, Luther considère comme une infâme déformation rabbinique l'idée d'une Loi orale (le Talmud) comme pendant indispensable de la Loi écrite. Comme eux encore, il campe sur des positions prosélytes et, partant, potentiellement, intolérantes. Comme eux enfin, il manie de lourds arguments théologiques contre les Juifs s'obstinant à rester juifs (caducité de l'Alliance, annonce de Jésus comme Messie, etc.).
Mais, en tant que fondateur du protestantisme, son conflit avec le judaïsme se noue plus spécifiquement autour de la question chrétienne du salut. Pour les catholiques, je suis sauvé par mes "oeuvres", c'est-à-dire mes bonnes actions. C'est le fondement théologique de l'activité caritative de la papauté, qui permet d'acheter son salut à coups de donations, de messes, d'indulgences.
Au contraire, Luther, en s'appuyant notamment sur Paul, développe une théologie de la grâce, qui inverse le lien de causalit : l'amour de Dieu m'est donné sans condition, et c'est précisément ce qui doit m'inciter à agir de façon charitable. Or, dans "Des Juifs et de leurs mensonges", Luther range les Juifs du côté des catholiques, en quoi il se trompe, car la perspective juive se soucie en réalité fort peu du salut et de la rédemption. Cette critique contre le judaïsme est forte: s'agit-il cependant d'antisémitisme? Je ne le crois pas.
Le problème se niche peut-être plutôt dans cette capacité de violence et de colère du réformateur, dans sa véhémente affirmation d'une parole persuadée de détenir la vérité et de devoir abolir l'erreur. Concernant les Juifs, cela conduit Luther à remettre en cause les équilibres anciens trouvés par l'Église romaine et, plus généralement, à attaquer la tradition de tolérance (avec toutes les ambiguïtés de ce mot) de l'Occident, qui, depuis plus de mille ans, puisait à la fois au droit romain, à la politique des papes et aux principaux textes chrétiens.
À côté de désaccords théologiques, par exemple sur les oeuvres, la foi et la grâce, il y a chez Luther cette approche radicale, désireuse de rupture, de rationalité et d'homogénéisation. Cette approche est une des formes possibles de la modernité occidentale. On pourrait dire que c'est la face sombre des Lumières, et il me semble qu'on en trouve la trace dès Luther.
Truie : La "truie des Juifs", ou "truie juive" (en allemand Judensau), est un motif antisémite classique au Moyen Âge, figurée notamment sur un bas-relief de l'église de la ville de Wittemberg (où Luther prêcha). Elle représente des Juifs en contact obscène avec une truie, et entend dénoncer ainsi la bestialité des Juifs et le lien intime qu'ils entretiennent avec les porcs. L'image revient à vingtaine de reprises dans "Des Juifs et de leurs mensonges".
- Quels ont été les effets de l'ouvrage de Luther sur le protestantisme et sur l'histoire allemande ?
- Sur le moment même, il n'a que peu d'effets: bien des expulsions sont prononcées sans que l'on ait besoin pour cela de ses recommandations. On a toutefois connaissance de mesures adoptées dans son sillage dans le Neumark, en Saxe ou encore en Hesse.
En outre, si sa réception et ses usages furent importants à l'époque de sa publication, y compris avec quelques condamnations par des contemporains de Luther, il semble que, passé le XVIe siècle, cette partie de l'oeuvre du théologien a en fait été assez oubliée. Aux XVIIe et XVIIIe siècles, les trois traités antijudaïques sont publiés de loin en loin isolément. Leur retour sur le devant de la scène commence dans les années 1830-1840 et c'est en 1920 que l'édition de Weimar qui fait référence achève de les rendre visibles.
On peut toutefois défendre que la présence d'une haine si forte dans une oeuvre si lue ne peut qu'avoir de lourds effets. Pour ainsi dire, avec "Des Juifs et de leurs mensonges", le vers est dans le fruit : l'antisémitisme est durablement légitimé. Avec lui, s'enclenche une certaine modernité allemande, qui n'est bien sûr ni toute l'Allemagne, ni toute la modernité. Que l'on songe aux accusations portées par Emmanuel Levinas contre la conscience philosophique occidentale et sa volonté totalisante.
Dans une telle perspective, Luther prendrait place dans la généalogie d'un universalisme devenu criminel, qui passerait par les Lumières et déboucherait sur la constitution d'un "problème" posé par les Juifs, perçus comme faisant obstacle à l'avènement de l'universel "illimité" ou "facile".
Je reprends ici la thèse proposée par Jean-Claude Milner dans "les Penchants criminels de l'Europe". Pour Milner, ce que les universalistes (adeptes d'une lecture plus ou moins sécularisée des épîtres de Paul) ne supportent pas dans le judaïsme, c'est le principe de filiation. Et en effet, ce principe est copieusement attaqué par Luther, dont on sait l'importance qu'il accordait à Paul.
Pour autant, peut-on inscrire Luther dans la succession des penseurs qui, à force d'universalisme "facile", ont fini par fabriquer le "problème juif" et ouvert la voie à la "solution finale" ? Circonstance aggravante pour le réformateur, c'est dans les années 1930-1940 que ses textes antisémites ont été le plus souvent cités - en un sens favorable, puisqu'il s'agit de récupérations par les nazis. L'une des plus célèbres récupérations est celle de Julius Streicher, directeur de "Der Stürmer" et vieux compagnon de Hitler, lorsqu'il déclara au procès de Nuremberg (1946) :
en fin de compte, [Luther] serait aujourd'hui à [sa] place au banc des accusés si ["Des Juifs et de leurs mensonges"] avait été versé au dossier du procès.
Autre indice frappant : la carte du vote nazi et celle du protestantisme au début des années 1930 se recoupent parfaitement, et, pourrait-on dire, terriblement. Pour autant, il paraît injuste de voir là de véritables effets de l'oeuvre de Luther. Dans la tradition antisémite de l'Allemagne, aujourd'hui bien évidemment interrompue, Luther joue un rôle, sans doute, mais il est difficile d'en faire la pesée.
L'historien Marc Bloch prononça une mise en garde fameuse contre l'"idole des origines", ce commencement "qui suffit à expliquer". Dans une généalogie, les crimes des générations postérieures ne sont pas imputables aux ancêtres. Bien responsable de ce qu'il a écrit, et qui l'accable, Luther ne l'est pas de la suite de l'histoire, surtout si cinq siècles le séparent de cette "suite" dramatique.

Auteur: Savy Pierre

Info: propos recueillis par Eric Aeschimann, Des Juifs et de leurs mensonges, par Martin Luther, éditions Honoré Champion, 212

[ Europe ]

 

Commentaires: 0

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

spiritualité

D' Héliopolis le culte osirien s'implante à Busiris à la place de l'ancien roi divinisé Andjyty, l'homme aux deux cornes de bélier et aux deux plumes sur la tête avec dans les mains le sceptre Héka (symbole magique) et le flagellum (insigne de royauté que reçoit le prince héritier lors de son intronisation). Busiris était à l'époque prédynastique la capitale du delta, mais elle perdit le titre durant l'Ancien-Empire au profit de Bouto (ville située entre Alexandrie et Saïs). Busiris que Strabon nomme en grec Cynopolis, resta célèbre pour son grand temple dédié à la déesse... Isis. Cela n'a pas empêché l'extension du culte d'Osiris qui est devenu dans la mémoire populaire " l'être perpétuellement bon " aimé de tout son peuple pour lequel il a dû se sacrifier, afin de lui montrer le chemin qui mène à la vie éternelle. Plus de 2500 ans avant la naissance de Jésus, Osiris était comme lui un roi né d'une fécondation spirituelle, comme lui il est la lumière qui éclaire et chasse les ténèbres. Tué par ses frères de religion il renaîtra et montera au ciel pour juger les âmes selon leurs mérites personnels...
Isis : la reine-mère aux pouvoirs temporels et spirituels. Etrange reine aux origines mystiques qui porte à deux lettres près, le nom de son époux Osiris assassiné par Seth. Comme la grande déesse-mère de l'Antiquité, Isis sera souvent honorée et son aide sollicitée en tant guérisseuse et mère protectrice. Selon la légende, elle va retrouver avec l'aide d'Anubis (patron des embaumeurs) et de sa soeur Nephthys les morceaux de son époux disséminés dans tous les nomes d'Egypte. Connaissant le mystérieux secret de Rê d'où il tire sa toute puissance, elle l'utilise pour ressusciter durant quelques instants son époux, le temps d'être fécondée spirituellement par lui. Sous le Nouvel Empire Isis est aimée et adorée de tous comme étant la "Mère universelle" et particulièrement la déesse de ceux qui souffrent. Elle console les pauvres et ceux qui vont bientôt mourir. Elle a le pouvoir de faire ressusciter les morts, depuis son interposition pour la résurrection de l'esprit d'Osiris. Comme Marie au Golgotha dans la religion chrétienne qui devient par ses souffrances au travers du disciple Jean " la Mère de toute l'humanité ", Isis souffre et devient avec son fils Horus, la grande mère victorieuse qui refoule les forces des ténèbres et remporte par le combat de ses souffrances une victoire décisive sur le mal.
Le mythe de l'Inondation bienfaisante : En Egypte depuis l'époque préhistorique l'inondation était un phénomène naturel qui arrivait chaque année vers la mi-Juillet, cette date correspondait également au nouvel an égyptien. Cette inondation fluctuait d'une année à l'autre en fonction des pluies tombées sur les hauts plateaux de Nubie que charriaient le Nil et ses affluents. Elle pouvait tout aussi bien être insignifiante, par un très bas niveau, ce qui correspondait à une "année de sécheresse" ou imprégner généreusement durant trois mois toutes les terres desséchées par la chaleur solaire et assurer aux habitants une bonne germination des graines et assurer de bonnes récoltes. On comprend pourquoi les éléments naturels comme la pluie, le soleil, l'inondation ou la sécheresse ont eu une importance vitale pour les premières peuplades.
D'abord symbolisé dans l'ennéade d'Héliopolis par les deux lions Shou et Tefnout adorés à Léontopolis. Tefnout la fille de Rê et déesse fugueuse avait quitté son père et son époux Shou pour vivre en liberté dans les montagnes de Nubie où elle terrorisait les habitants. Rê qui s'ennuyait de sa fille envoya Shou avec le dieu Thot de la sagesse sous la forme d'un singe qui utilisa sa sagesse et son Verbe pour réussir à convaincre Tefnout, la déesse lointaine à revenir sous la forme d'une inondation bienfaisante qui s'adoucit dès le passage de la première cataracte de Philae. A partir de la IIIe dynastie l'inondation est liée au rassemblement des morceaux d'Osiris éparpillés dans les divers nomes qui vont assurer la revitalisation des terres. Certains prêtres voyaient également dans l'inondation : les larmes mystiques d'Isis pleurant son époux disparu, etc, etc.
L'eau de vie selon un extrait des " anciens Textes des Pyramides " : Selon la légende Rê naissait sous la forme d'un scarabée noir qui sous cette forme traversait la nuit. Il faut dire qu'en ce temps-là existait encore des scarabées volants aujourd'hui disparus ! Au matin le scarabée se métamorphosait en enfant appelé Khepri = la vie qui vient. Jusqu'à midi l'enfant grandissait pour prendre la forme d'un homme avec une tête de faucon appelé Rê-Horatky (la puissance du roi Horus à son zénith). Le soir, lorsque l'astre disparaissait derrière les monts de l'Occident, Rê était englobé par Atoum l'esprit invisible et devenait Atoum-Rê sous l'aspect d'un vieillard qui s'en allait sur sa barque, disparaissait dans le fleuve avant de renaître au petit matin sur l'autre rive du Nil.
A la 2è dynastie les pharaons se considérèrent comme les fils du soleil, à la 5è dynastie, ils se voyaient comme l'incarnation du soleil, le pharaon est en Rê et Rê est dans le Pharaon. Principale source de vie, le soleil centralise en lui les pouvoirs des rois et des principales divinités, ainsi on l'appellera souvent Atoum-Rê, Amon-Rê, Knouhm-Rê, Osiris-Rê et Horus-Rê... Ihet serait la vache primordiale ou mère génitrice du soleil qui après sa naissance l'aurait placé entre ses cornes pour le protéger. Quant à la déesse Tasenet-Neferet, elle fut considérée à l'époque tardive comme l'oeil de Rê et la soeur du soleil. A Kôm-Ombo, elle est unie à Horus l'Ancien et devient l'épouse d'Haroëris.
Les compagnes de Rê à Héliopolis : NEBETHETEPET : (assimilée à Hathor) avec la déesse IOUSSAS (la dame de la satisfaction), ces deux déesses auraient inspiré le démiurge d'Héliopolis ATOUM-Rê à créer le monde. SHESEMTET : (une des faces d'Hathor qui se manifeste dans l'Uraeus). MAAT : Fille d'ATOUM elle le principe de la lumière et la déesse de la vérité, représentant la JUSTICE divine. Elle est aussi le symbole du charme féminin. Les filles de Rê : PAKHET : la déesse lionne de Béni Hassan qui surveillait les frontières du désert.
BASTET : la déesse chatte de Bubastis qui est alors la déesse gardienne du foyer, ou sous son aspect lionne l'oeil de Rê. TEFNOUT : la lionne de Léontopolis, elle est la principale représentante des déesses dangereuses. HATHOR : sous son aspect de déesse dangereuse Hathor unie aux forces de Mâat repoussaient les attaques des forces du chaos. P T A H : le dieu au crâne rasé et gainé comme une momie.
Si à Héliopolis le dieu Atoum-Rê s'imposa à la tête de l'ennéade divine, à Memphis on vénéra durant les deux premières dynasties le dieu Sokar sous l'aspect d'une momie à tête de faucon qui traversait le Nil ( fleuve sacré) dans sa barque Hénou, afin de faire revivre le soleil sur l'autre rive. C'est probablement sa silhouette gravée sur la massue du Roi Narmer, qui se trouve assise en face du trône royal, ce qui laisse penser que dès la première dynastie officielle, les précurseurs d'Imhotep ont déjà essayé d'introduire cette idée de résurrection à la cour royale tout en essayant de conserver l'image d'Horus l'Ancien en la personne du grand Monarque.
C'est sous la troisième dynastie que s'installera parallèlement Ptah une nouvelle divinité à Memphis qui possède également un aspect de roi momifié, tandis que le clergé confiera au dieu Sokar la garde de la "cité des morts à Saqqarah.endroit nommé Roséatou"
Le dieu Ptah est en quelque sorte une image évoluée de l'Ancien Horus-Sokar qui tout en gardant son aspect de momie royale, serre dans ses mains la croix Ankh égyptienne et le signe Djed symbolisant la colonne dorsale d'Osiris (siège du fluide vital,) sans oublier le sceptre Ouas du pouvoir divin. Sous le nom de Ptah-Tenen ce dieu devient celui qui développe la vie terrestre. Parfois en Haute Egypte on le représente sous l'aspect d'un lion qui en s'unissant avec la déesse lionne Sekhmet engendre le dieu guerrier Néfertoum: symbole de la renaissance perpétuelle du soleil.
Sokar, Ptah et Osiris vont eux-mêmes rapidement se confondre en une seule personne, fusion qui s'accomplira totalement lors de la 3è période intermédiaire (-1085 à -730 av. J.C.)
C'est donc 400 ans avant l'arrivée d'Imhotep, que l'on constate l'introduction de ce dieu des morts à forme humaine qui représente déjà une conception de la vie après la mort.
Contrairement à d'autres religions Imhotep ne va pas bannir toutes les anciennes divinités mais en leur laissant une importance secondaire il va s'en servir pour les transformer et faire passer dans le peuple les idées majeures fondamentales : la conscience, la Justice et la vérité.
Ptah devient le Créateur par le verbe et le Père des dieux
Sokar avec sa barque Henou devient le conducteur des âmes
Osiris devient le dieu qui a le pouvoir de faire renaître les bons.
Il ne suffisait pas d'ordonner la construction des pyramides, il fallait surtout motiver le peuple pour qu'il s'engage et achève de plein gré et avec amour, cet énorme travail.
Parfois l'esprit populaire identifiait Ptah à l'ancien taureau Apis, son culte s'est étendu au Nouvel Empire jusqu'à Deir el Médineh où il fut associé à la déesse (mi-femme, mi serpent) Meresger dans un temple proche de la Vallée où l'on enterrait les reines.
La déesse Hathor (demeure nourricière d'Horus le Jeune). Hathor a revêtu au cours des siècles (comme la déesse hindoue Devi) de multiples aspects allant de la mère protectrice archaïque (femme avec cornes de vache) à la jeune femme séduisante universelle. Sous sa forme ancienne elle devient une copie de Nout la déesse du ciel dont le corps rempli d'étoiles est arc-bouté au-dessus de la planète Terre. Fille de Rê, elle porte entre ses cornes de vache blanche étoilée le soleil, comme pour le protéger. Sous son aspect dangereux elle défend la réputation de son père Rê contre les humains qui l'accusent d'être trop vieux. Rê lui donne son troisième oeil et l'envoie punir les humains, mais elle causa de tels ravages que même Rê s'effraya et lui fit boire de la bière à son insu pour sauver le reste de l'humanité. Sous son côté féminin séducteur elle est non seulement la déesse de l'amour au feu dévorant mais également la déesse de la joie et de la vie. Des surnoms qui laissent rêveur. Elle devient la Dame du Sycomore du Sud, la déesse du Sinaï (!) ou la grande dame du pays de Pount, Hathor dont le nom signifie " la demeure nourricière d'Horus " Elle reste étroitement associée à Isis, certaines ressemblances laissent à penser qu'elle fut également introduite en Egypte par Imhotep. Associée au mythe de l'inondation, elle participe chaque année à la fête annuelle de la "Belle Rencontre " au temple de Dendérah (Haute Egypte). Durant cette fête la déesse s'unissait au dieu Horus d'Edfou. De cette union naissait le petit dieu Ithy patron de la musique et des musiciens. Au Moyen-Empire la déesse sera honorée aux temples de Dendérah et de Thèbes en tant que déesse de la Montagne des Morts et dans cette fonction rejoindra la grande déesse Isis. Or Dendérah est considéré comme un des temples les plus anciens qui aurait déjà été reconstruit six fois avant la période romaine !
Atoum : Grand Dieu Invisible d'Héliopolis (où officiait le Grand-Prêtre Imhotep) Son nom signifie " Celui qui est et qui n'est pas... Le Seigneur de l'univers - Le Tout et le néant" Atoum devint en quelque sorte la force invisible qui régénère le soleil vieillissant et le père de la nouvelle lumière qui traverse l'empire des morts et doit accéder à une nouvelle vie le lendemain. Il est aussi le père qui a engendré la déesse Mâat incarnation de la vérité et de la justice qui est également une des épouses de Rê. Son culte restera très important aussi longtemps que Memphis sera la capitale de l'Egypte, mais lorsque Thèbes remplacera Memphis, Atoum s'éclipsera peu à peu au profit d'Amon, qui n'est en somme qu'une copie spirituelle du dieu-berger Atoum qui prolonge l'image du Dieu Suprême, Omniprésent, Tout-puissant et Invisible à partir d'une nouvelle capitale religieuse (Thèbes au lieu de Memphis). Dès le début de l'Ancien Empire il est le dieu des morts qui participait au jugement des âmes. Associé à Osiris, il restera longtemps le dieu de l'embaumement, rite qu'il a pratiqué la première fois sur la personne d'Osiris, reconstitué et ressuscité par son épouse Isis. Désormais il offre ses services à tous les défunts qu'il guide par les Textes des Pyramides jusqu'aux régions célestes. On le représentait sous la forme d'un homme avec une tête de chacal. (Puis il y aura la parenthèse Akhenaton qui aurait vu l'exode des juifs vers la terre promise)

Auteur: Internet

Info:

[ ancienne Egypte ] [ mythe ] [ légende ] [ historique ]

 

Commentaires: 0

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

auto-programmation

Pieuvres et calmars modifient et corrigent (édit en anglais) leur ARN, tout en laissant l'ADN intact. Des changements qui pourraient expliquer l'intelligence et la flexibilité des céphalopodes dépourvus de coquille

De nombreux écrivains se plaignent lorsqu'un rédacteur  vient éditer et donc modifier leur article, mais les conséquences de la modification d'un seul mot ne sont généralement pas si graves.

Ce n'est pas le cas des instructions génétiques pour la fabrication des protéines. Même une petite modification peut empêcher une protéine de faire son travail correctement, ce qui peut avoir des conséquences mortelles. Ce n'est qu'occasionnellement qu'un changement est bénéfique. Il semble plus sage de conserver les instructions génétiques telles qu'elles sont écrites. À moins d'être une pieuvre.

Les pieuvres sont comme des extraterrestres qui vivent parmi nous : elles font beaucoup de choses différemment des animaux terrestres ou même des autres créatures marines. Leurs tentacules flexibles goûtent ce qu'ils touchent et ont leur esprit propre. Les yeux des pieuvres sont daltoniens, mais leur peau peut détecter la lumière par elle-même. Les pieuvres sont des maîtres du déguisement, changeant de couleur et de texture de peau pour se fondre dans leur environnement ou effrayer leurs rivaux. Et plus que la plupart des créatures, les pieuvres font gicler l'équivalent moléculaire de l'encre rouge sur leurs instructions génétiques avec un abandon stupéfiant, comme un rédacteur en chef déchaîné.

Ces modifications-éditions concernent l'ARN, molécule utilisée pour traduire les informations du plan génétique stocké dans l'ADN, tout en laissant l'ADN intact.

Les scientifiques ne savent pas encore avec certitude pourquoi les pieuvres et d'autres céphalopodes sans carapace, comme les calmars et les seiches, sont des modificateurs aussi prolifiques. Les chercheurs se demandent si cette forme d'édition génétique a donné aux céphalopodes une longueur d'avance sur le plan de l'évolution (ou un tentacule) ou si cette capacité n'est qu'un accident parfois utile. Les scientifiques étudient également les conséquences que les modifications de l'ARN peuvent avoir dans diverses conditions. Certaines données suggèrent que l'édition pourrait donner aux céphalopodes une partie de leur intelligence, mais au prix d'un ralentissement de l'évolution de leur ADN.

"Ces animaux sont tout simplement magiques", déclare Caroline Albertin, biologiste spécialiste du développement comparatif au Marine Biological Laboratory de Woods Hole (Massachusetts). "Ils ont toutes sortes de solutions différentes pour vivre dans le monde d'où ils viennent. L'édition de l'ARN pourrait contribuer à donner à ces créatures un grand nombre de solutions aux problèmes qu'elles peuvent rencontrer.

(vidéo - Contrairement à d'autres animaux à symétrie bilatérale, les pieuvres ne rampent pas dans une direction prédéterminée. Des vidéos de pieuvres en train de ramper montrent qu'elles peuvent se déplacer dans n'importe quelle direction par rapport à leur corps, et qu'elles changent de direction de rampe sans avoir à tourner leur corps. Dans le clip, la flèche verte indique l'orientation du corps de la pieuvre et la flèche bleue indique la direction dans laquelle elle rampe.)

Le dogme central de la biologie moléculaire veut que les instructions pour construire un organisme soient contenues dans l'ADN. Les cellules copient ces instructions dans des ARN messagers, ou ARNm. Ensuite, des machines cellulaires appelées ribosomes lisent les ARNm pour construire des protéines en enchaînant des acides aminés. La plupart du temps, la composition de la protéine est conforme au modèle d'ADN pour la séquence d'acides aminés de la protéine.

Mais l'édition de l'ARN peut entraîner des divergences par rapport aux instructions de l'ADN, créant ainsi des protéines dont les acides aminés sont différents de ceux spécifiés par l'ADN.

L'édition modifie chimiquement l'un des quatre éléments constitutifs de l'ARN, ou bases. Ces bases sont souvent désignées par les premières lettres de leur nom : A, C, G et U, pour adénine, cytosine, guanine et uracile (la version ARN de la base ADN thymine). Dans une molécule d'ARN, les bases sont liées à des sucres ; l'unité adénine-sucre, par exemple, est appelée adénosine.

Il existe de nombreuses façons d'éditer des lettres d'ARN. Les céphalopodes excellent dans un type d'édition connu sous le nom d'édition de l'adénosine à l'inosine, ou A-to-I. Cela se produit lorsqu'une enzyme appelée ADAR2 enlève un atome d'azote et deux atomes d'hydrogène de l'adénosine (le A). Ce pelage chimique transforme l'adénosine en inosine (I).

 Les ribosomes lisent l'inosine comme une guanine au lieu d'une adénine. Parfois, ce changement n'a aucun effet sur la chaîne d'acides aminés de la protéine résultante. Mais dans certains cas, la présence d'un G à la place d'un A entraîne l'insertion d'un acide aminé différent dans la protéine. Ce type d'édition de l'ARN modifiant la protéine est appelé recodage de l'ARN.

Les céphalopodes à corps mou ont adopté le recodage de l'ARN à bras-le-corps, alors que même les espèces étroitement apparentées sont plus hésitantes à accepter les réécritures, explique Albertin. "Les autres mollusques ne semblent pas le faire dans la même mesure.

L'édition de l'ARN ne se limite pas aux créatures des profondeurs. Presque tous les organismes multicellulaires possèdent une ou plusieurs enzymes d'édition de l'ARN appelées enzymes ADAR, abréviation de "adénosine désaminase agissant sur l'ARN", explique Joshua Rosenthal, neurobiologiste moléculaire au Marine Biological Laboratory.

Les céphalopodes possèdent deux enzymes ADAR. L'homme possède également des versions de ces enzymes. "Dans notre cerveau, nous modifions une tonne d'ARN. Nous le faisons beaucoup", explique Rosenthal. Au cours de la dernière décennie, les scientifiques ont découvert des millions d'endroits dans les ARN humains où se produit l'édition.

Mais ces modifications changent rarement les acides aminés d'une protéine. Par exemple, Eli Eisenberg, de l'université de Tel Aviv, et ses collègues ont identifié plus de 4,6 millions de sites d'édition dans les ARN humains. Parmi ceux-ci, seuls 1 517 recodent les protéines, ont rapporté les chercheurs l'année dernière dans Nature Communications. Parmi ces sites de recodage, jusqu'à 835 sont partagés avec d'autres mammifères, ce qui suggère que les forces de l'évolution ont préservé l'édition à ces endroits.

(Encadré :  Comment fonctionne l'édition de l'ARN ?

Dans une forme courante d'édition de l'ARN, une adénosine devient une inosine par une réaction qui supprime un groupe aminé et le remplace par un oxygène (flèches). L'illustration montre une enzyme ADAR se fixant à un ARN double brin au niveau du "domaine de liaison de l'ARNdb". La région de l'enzyme qui interagit pour provoquer la réaction, le "domaine de la désaminase", est positionnée près de l'adénosine qui deviendra une inosine.)

Les céphalopodes portent le recodage de l'ARN à un tout autre niveau, dit Albertin. L'encornet rouge (Doryteuthis pealeii) possède 57 108 sites de recodage, ont rapporté Rosenthal, Eisenberg et leurs collègues en 2015 dans eLife. Depuis, les chercheurs ont examiné plusieurs espèces de pieuvres, de calmars et de seiches, et ont à chaque fois trouvé des dizaines de milliers de sites de recodage.

Les céphalopodes à corps mou, ou coléoïdes, pourraient avoir plus de possibilités d'édition que les autres animaux en raison de l'emplacement d'au moins une des enzymes ADAR, ADAR2, dans la cellule. La plupart des animaux éditent les ARN dans le noyau - le compartiment où l'ADN est stocké et copié en ARN - avant d'envoyer les messages à la rencontre des ribosomes. Mais chez les céphalopodes, les enzymes se trouvent également dans le cytoplasme, l'organe gélatineux des cellules, ont découvert Rosenthal et ses collègues (SN : 4/25/20, p. 10).

Le fait d'avoir des enzymes d'édition dans deux endroits différents n'explique pas complètement pourquoi le recodage de l'ARN chez les céphalopodes dépasse de loin celui des humains et d'autres animaux. Cela n'explique pas non plus les schémas d'édition que les scientifiques ont découverts.

L'édition de l'ARN amènerait de la flexibilité aux céphalopodes

L'édition n'est pas une proposition "tout ou rien". Il est rare que toutes les copies d'un ARN dans une cellule soient modifiées. Il est beaucoup plus fréquent qu'un certain pourcentage d'ARN soit édité tandis que le reste conserve son information originale. Le pourcentage, ou fréquence, de l'édition peut varier considérablement d'un ARN à l'autre ou d'une cellule ou d'un tissu à l'autre, et peut dépendre de la température de l'eau ou d'autres conditions. Chez le calmar à nageoires longues, la plupart des sites d'édition de l'ARN étaient édités 2 % ou moins du temps, ont rapporté Albertin et ses collègues l'année dernière dans Nature Communications. Mais les chercheurs ont également trouvé plus de 205 000 sites qui étaient modifiés 25 % du temps ou plus.

Dans la majeure partie du corps d'un céphalopode, l'édition de l'ARN n'affecte pas souvent la composition des protéines. Mais dans le système nerveux, c'est une autre histoire. Dans le système nerveux du calmar à nageoires longues, 70 % des modifications apportées aux ARN producteurs de protéines recodent ces dernières. Dans le système nerveux de la pieuvre californienne à deux points (Octopus bimaculoides), les ARN sont recodés trois à six fois plus souvent que dans d'autres organes ou tissus.

(Photo -  L'encornet rouge recode l'ARN à plus de 50 000 endroits. Le recodage de l'ARN pourrait aider le calmar à réagir avec plus de souplesse à son environnement, mais on ne sait pas encore si le recodage a une valeur évolutive. Certains ARNm possèdent plusieurs sites d'édition qui modifient les acides aminés des protéines codées par les ARNm. Dans le système nerveux de l'encornet rouge, par exemple, 27 % des ARNm ont trois sites de recodage ou plus. Certains contiennent 10 sites ou plus. La combinaison de ces sites d'édition pourrait entraîner la fabrication de plusieurs versions d'une protéine dans une cellule.)

Le fait de disposer d'un large choix de protéines pourrait donner aux céphalopodes "plus de souplesse pour réagir à l'environnement", explique M. Albertin, "ou leur permettre de trouver diverses solutions au problème qui se pose à eux". Dans le système nerveux, l'édition de l'ARN pourrait contribuer à la flexibilité de la pensée, ce qui pourrait expliquer pourquoi les pieuvres peuvent déverrouiller des cages ou utiliser des outils, pensent certains chercheurs. L'édition pourrait être un moyen facile de créer une ou plusieurs versions d'une protéine dans le système nerveux et des versions différentes dans le reste du corps, explique Albertin.

Lorsque l'homme et d'autres vertébrés ont des versions différentes d'une protéine, c'est souvent parce qu'ils possèdent plusieurs copies d'un gène. Doubler, tripler ou quadrupler les copies d'un gène "permet de créer tout un terrain de jeu génétique pour permettre aux gènes de s'activer et d'accomplir différentes fonctions", explique M. Albertin. Mais les céphalopodes ont tendance à ne pas dupliquer les gènes. Leurs innovations proviennent plutôt de l'édition.

Et il y a beaucoup de place pour l'innovation. Chez le calmar, les ARNm servant à construire la protéine alpha-spectrine comportent 242 sites de recodage. Toutes les combinaisons de sites modifiés et non modifiés pourraient théoriquement créer jusqu'à 7 x 1072 formes de la protéine, rapportent Rosenthal et Eisenberg dans le numéro de cette année de l'Annual Review of Animal Biosciences (Revue annuelle des biosciences animales). "Pour mettre ce chiffre en perspective, écrivent les chercheurs, il suffit de dire qu'il éclipse le nombre de toutes les molécules d'alpha-spectrine (ou, d'ailleurs, de toutes les molécules de protéines) synthétisées dans toutes les cellules de tous les calmars qui ont vécu sur notre planète depuis l'aube des temps.

Selon Kavita Rangan, biologiste moléculaire à l'université de Californie à San Diego, ce niveau de complexité incroyable ne serait possible que si chaque site était indépendant. Rangan a étudié le recodage de l'ARN chez le calmar californien (Doryteuthis opalescens) et le calmar à nageoires longues. La température de l'eau incite les calmars à recoder les protéines motrices appelées kinésines qui déplacent les cargaisons à l'intérieur des cellules.

Chez l'encornet rouge, l'ARNm qui produit la kinésine-1 comporte 14 sites de recodage, a découvert Mme Rangan. Elle a examiné les ARNm du lobe optique - la partie du cerveau qui traite les informations visuelles - et du ganglion stellaire, un ensemble de nerfs impliqués dans la génération des contractions musculaires qui produisent des jets d'eau pour propulser le calmar.

Chaque tissu produit plusieurs versions de la protéine. Rangan et Samara Reck-Peterson, également de l'UC San Diego, ont rapporté en septembre dernier dans un article publié en ligne sur bioRxiv.org que certains sites avaient tendance à être édités ensemble. Leurs données suggèrent que l'édition de certains sites est coordonnée et "rejette très fortement l'idée que l'édition est indépendante", explique Rangan. "La fréquence des combinaisons que nous observons ne correspond pas à l'idée que chaque site a été édité indépendamment.

L'association de sites d'édition pourrait empêcher les calmars et autres céphalopodes d'atteindre les sommets de complexité dont ils sont théoriquement capables. Néanmoins, l'édition de l'ARN offre aux céphalopodes un moyen d'essayer de nombreuses versions d'une protéine sans s'enfermer dans une modification permanente de l'ADN, explique M. Rangan.

Ce manque d'engagement laisse perplexe Jianzhi Zhang, généticien évolutionniste à l'université du Michigan à Ann Arbor. "Pour moi, cela n'a pas de sens", déclare-t-il. "Si vous voulez un acide aminé particulier dans une protéine, vous devez modifier l'ADN. Pourquoi changer l'ARN ?

L'édition de l'ARN a-t-elle une valeur évolutive ?

L'édition de l'ARN offre peut-être un avantage évolutif. Pour tester cette idée, Zhang et Daohan Jiang, alors étudiant de troisième cycle, ont comparé les sites "synonymes", où les modifications ne changent pas les acides aminés, aux sites "non synonymes", où le recodage se produit. Étant donné que les modifications synonymes ne modifient pas les acides aminés, les chercheurs ont considéré que ces modifications étaient neutres du point de vue de l'évolution. Chez l'homme, le recodage, ou édition non synonyme, se produit sur moins de sites que l'édition synonyme, et le pourcentage de molécules d'ARN qui sont éditées est plus faible que sur les sites synonymes.

"Si nous supposons que l'édition synonyme est comme un bruit qui se produit dans la cellule, et que l'édition non-synonyme est moins fréquente et [à un] niveau plus bas, cela suggère que l'édition non-synonyme est en fait nuisible", explique Zhang. Même si le recodage chez les céphalopodes est beaucoup plus fréquent que chez les humains, dans la plupart des cas, le recodage n'est pas avantageux, ou adaptatif, pour les céphalopodes, ont affirmé les chercheurs en 2019 dans Nature Communications.

Il existe quelques sites communs où les pieuvres, les calmars et les seiches recodent tous leurs ARN, ont constaté les chercheurs, ce qui suggère que le recodage est utile dans ces cas. Mais il s'agit d'une petite fraction des sites d'édition. Zhang et Jiang ont constaté que quelques autres sites édités chez une espèce de céphalopode, mais pas chez les autres, étaient également adaptatifs.

Si ce n'est pas si utile que cela, pourquoi les céphalopodes ont-ils continué à recoder l'ARN pendant des centaines de millions d'années ? L'édition de l'ARN pourrait persister non pas parce qu'elle est adaptative, mais parce qu'elle crée une dépendance, selon Zhang.

Zhang et Jiang ont proposé un modèle permettant de nuire (c'est-à-dire une situation qui permet des modifications nocives de l'ADN). Imaginez, dit-il, une situation dans laquelle un G (guanine) dans l'ADN d'un organisme est muté en A (adénine). Si cette mutation entraîne un changement d'acide aminé nocif dans une protéine, la sélection naturelle devrait éliminer les individus porteurs de cette mutation. Mais si, par chance, l'organisme dispose d'un système d'édition de l'ARN, l'erreur dans l'ADN peut être corrigée par l'édition de l'ARN, ce qui revient à transformer le A en G. Si la protéine est essentielle à la vie, l'ARN doit être édité à des niveaux élevés de sorte que presque chaque copie soit corrigée.

 Lorsque cela se produit, "on est bloqué dans le système", explique M. Zhang. L'organisme est désormais dépendant de la machinerie d'édition de l'ARN. "On ne peut pas la perdre, car il faut que le A soit réédité en G pour survivre, et l'édition est donc maintenue à des niveaux élevés.... Au début, on n'en avait pas vraiment besoin, mais une fois qu'on l'a eue, on en est devenu dépendant".

Zhang soutient que ce type d'édition est neutre et non adaptatif. Mais d'autres recherches suggèrent que l'édition de l'ARN peut être adaptative.

L'édition de l'ARN peut fonctionner comme une phase de transition, permettant aux organismes de tester le passage de l'adénine à la guanine sans apporter de changement permanent à leur ADN. Au cours de l'évolution, les sites où les adénines sont recodées dans l'ARN d'une espèce de céphalopode sont plus susceptibles que les adénines non éditées d'être remplacées par des guanines dans l'ADN d'une ou de plusieurs espèces apparentées, ont rapporté les chercheurs en 2020 dans PeerJ. Et pour les sites fortement modifiés, l'évolution chez les céphalopodes semble favoriser une transition de A à G dans l'ADN (plutôt qu'à la cytosine ou à la thymine, les deux autres éléments constitutifs de l'ADN). Cela favorise l'idée que l'édition peut être adaptative.

D'autres travaux récents de Rosenthal et de ses collègues, qui ont examiné les remplacements de A en G chez différentes espèces, suggèrent que le fait d'avoir un A modifiable est un avantage évolutif par rapport à un A non modifiable ou à un G câblé.

(Tableau :  Quelle est la fréquence de l'enregistrement de l'ARN ?

Les céphalopodes à corps mou, notamment les pieuvres, les calmars et les seiches, recodent l'ARN dans leur système nerveux sur des dizaines de milliers de sites, contre un millier ou moins chez l'homme, la souris, la mouche des fruits et d'autres espèces animales. Bien que les scientifiques aient documenté le nombre de sites d'édition, ils auront besoin de nouveaux outils pour tester directement l'influence du recodage sur la biologie des céphalopodes.

Schéma avec comparaison des nombre de sites de recodage de l'ARN chez les animaux

J.J.C. ROSENTHAL ET E. EISENBERG/ANNUAL REVIEW OF ANIMAL BIOSCIENCES 2023 )

Beaucoup de questions en suspens

Les preuves pour ou contre la valeur évolutive du recodage de l'ARN proviennent principalement de l'examen de la composition génétique totale, ou génomes, de diverses espèces de céphalopodes. Mais les scientifiques aimeraient vérifier directement si les ARN recodés ont un effet sur la biologie des céphalopodes. Pour ce faire, il faudra utiliser de nouveaux outils et faire preuve de créativité.

Rangan a testé des versions synthétiques de protéines motrices de calmars et a constaté que deux versions modifiées que les calmars fabriquent dans le froid se déplaçaient plus lentement mais plus loin le long de pistes protéiques appelées microtubules que les protéines non modifiées. Mais il s'agit là de conditions artificielles de laboratoire, sur des lames de microscope. Pour comprendre ce qui se passe dans les cellules, Mme Rangan aimerait pouvoir cultiver des cellules de calmar dans des boîtes de laboratoire. Pour l'instant, elle doit prélever des tissus directement sur le calmar et ne peut obtenir que des instantanés de ce qui se passe. Les cellules cultivées en laboratoire pourraient lui permettre de suivre ce qui se passe au fil du temps.

M. Zhang explique qu'il teste son hypothèse de l'innocuité en amenant la levure à s'intéresser à l'édition de l'ARN. La levure de boulanger (Saccharomyces cerevisiae) ne possède pas d'enzymes ADAR. Mais Zhang a modifié une souche de cette levure pour qu'elle soit porteuse d'une version humaine de l'enzyme. Les enzymes ADAR rendent la levure malade et la font croître lentement, explique-t-il. Pour accélérer l'expérience, la souche qu'il utilise a un taux de mutation supérieur à la normale et peut accumuler des mutations G-A. Mais si l'édition de l'ARN peut corriger ces mutations, il est possible d'obtenir des résultats positifs. Mais si l'édition de l'ARN peut corriger ces mutations, la levure porteuse d'ADAR pourrait se développer mieux que celles qui n'ont pas l'enzyme. Et après de nombreuses générations, la levure pourrait devenir dépendante de l'édition, prédit Zhang.

Albertin, Rosenthal et leurs collègues ont mis au point des moyens de modifier les gènes des calmars à l'aide de l'éditeur de gènes CRISPR/Cas9. L'équipe a créé un calmar albinos en utilisant CRISPR/Cas9 pour supprimer, ou désactiver, un gène qui produit des pigments. Les chercheurs pourraient être en mesure de modifier les sites d'édition dans l'ADN ou dans l'ARN et de tester leur fonction, explique Albertin.

Cette science n'en est qu'à ses débuts et l'histoire peut mener à des résultats inattendus. Néanmoins, grâce à l'habileté des céphalopodes en matière d'édition, la lecture de cet article ne manquera pas d'être intéressante.

 

Auteur: Internet

Info: https://www.sciencenews.org/article/octopus-squid-rna-editing-dna-cephalopods, Tina Hesman Saey, 19 may 2023

[ poulpes ] [ calamars ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel

source du vivant

Comment la vie (et la mort) naissent du désordre

Alors que des systèmes simples montrent des signes de vie, les scientifiques se demandent si cette apparente complexité est entièrement une conséquence de la thermodynamique.

Quelle est la différence entre physique et biologie ? Prenez une balle de golf et un boulet de canon et déposez-les au sommet de la Tour de Pise. Les lois de la physique vous permettent de prédire leurs trajectoires avec autant de précision que vous pourriez le souhaiter.

Maintenant, refaites la même expérience, mais remplacez le boulet de canon par un pigeon.

Les systèmes biologiques ne défient pas les lois physiques, bien sûr, mais celles-ci ne semblent pas non plus pouvoir les prédire. En revanche, ils sont orientés vers un objectif : survivre et se reproduire. On peut dire qu’ils ont un but – ou ce que les philosophes appellent traditionnellement une téléologie – qui guide leur comportement.De la même manière, la physique nous permet désormais de prédire, à partir de l’état de l’univers un milliardième de seconde après le Big Bang, ce à quoi il ressemble aujourd’hui. Mais personne n’imagine que l’apparition des premières cellules primitives sur Terre a conduit de manière prévisible à la race humaine. Il semble qu'il n'y ait pas de loi qui dicte le cours de l’évolution.

La téléologie et la contingence historique de la biologie, a déclaré le biologiste évolutionniste Ernst Mayr, la rendent uniques qui parmi les sciences. Ces deux caractéristiques découlent peut-être du seul principe directeur général de la biologie : l’évolution. Qui dépend du hasard et des aléas, mais la sélection naturelle lui donne l’apparence d’une intention et d’un but. Les animaux ne sont pas attirés vers l’eau par une attraction magnétique, mais par leur instinct, leur intention de survivre. Les jambes servent, entre autres, à nous emmener à l'eau.

Mayr affirmait que ces caractéristiques rendent la biologie exceptionnelle – une loi en soi. Mais les développements récents en physique hors équilibre, en science des systèmes complexes et en théorie de l’information remettent en question cette vision.

Une fois que nous considérons les êtres vivants comme des agents effectuant un calcul – collectant et stockant des informations sur un environnement imprévisible – les capacités et les considérations telles que la réplication, l’adaptation, l’action, le but et la signification peuvent être comprises comme découlant non pas d’une improvisation évolutive, mais comme d'inévitables corollaires aux lois physiques. En d’autres termes, il semble y avoir une sorte de physique selon laquelle les choses font des choses et évoluent pour faire des choses. Le sens et l’intention – considérés comme les caractéristiques déterminantes des systèmes vivants – peuvent alors émerger naturellement à travers les lois de la thermodynamique et de la mécanique statistique.

En novembre dernier, des physiciens, des mathématiciens et des informaticiens se sont réunis avec des biologistes évolutionnistes et moléculaires pour discuter – et parfois débattre – de ces idées lors d'un atelier à l'Institut de Santa Fe au Nouveau-Mexique, la Mecque de la science des " systèmes complexes ". Ils ont demandé : à quel point la biologie est-elle spéciale (ou non) ?

Il n’est guère surprenant qu’il n’y ait pas eu de consensus. Mais un message qui est ressorti très clairement est que, s’il existe une sorte de physique derrière la téléologie et l’action biologiques, elle a quelque chose à voir avec le même concept qui semble s’être installé au cœur de la physique fondamentale elle-même : l’information.

Désordre et démons

La première tentative d’introduire l’information et l’intention dans les lois de la thermodynamique a eu lieu au milieu du XIXe siècle, lorsque la mécanique statistique fut inventée par le scientifique écossais James Clerk Maxwell. Maxwell a montré comment l’introduction de ces deux ingrédients semblait permettre de réaliser des choses que la thermodynamique proclamait impossibles.

Maxwell avait déjà montré comment les relations mathématiques prévisibles et fiables entre les propriétés d’un gaz – pression, volume et température – pouvaient être dérivées des mouvements aléatoires et inconnaissables d’innombrables molécules secouées frénétiquement par l’énergie thermique. En d’autres termes, la thermodynamique – la nouvelle science du flux de chaleur, qui réunissait les propriétés de la matière à grande échelle comme la pression et la température – était le résultat de la mécanique statistique à l’échelle microscopique des molécules et des atomes.

Selon la thermodynamique, la capacité à extraire du travail utile des ressources énergétiques de l’univers est en constante diminution. Les poches d’énergie diminuent, les concentrations de chaleur s’amenuisent. Dans tout processus physique, une certaine énergie est inévitablement dissipée sous forme de chaleur inutile, perdue au milieu des mouvements aléatoires des molécules. Ce caractère aléatoire est assimilé à la quantité thermodynamique appelée entropie – une mesure du désordre – qui est toujours croissante. C'est la deuxième loi de la thermodynamique. Finalement, l’univers tout entier sera réduit à un fouillis uniforme et ennuyeux : un état d’équilibre, dans lequel l’entropie est maximisée et où rien de significatif ne se reproduira plus jamais.

Sommes-nous vraiment condamnés à ce triste sort ? Maxwell était réticent à y croire et, en 1867, il entreprit, comme il le disait, de " faire un trou " dans la deuxième loi. Son objectif était de commencer avec une boîte désordonnée de molécules qui s'agitaient de manière aléatoire, puis de séparer les molécules rapides des molécules lentes, réduisant ainsi l'entropie.

Imaginez une petite créature – le physicien William Thomson l'appellera plus tard, au grand désarroi de Maxwell, un démon – qui peut voir chaque molécule individuelle dans la boîte. Le démon sépare la boîte en deux compartiments, avec une porte coulissante dans le mur entre eux. Chaque fois qu'il aperçoit une molécule particulièrement énergétique s'approcher de la porte depuis le compartiment de droite, il l'ouvre pour la laisser passer. Et chaque fois qu’une molécule lente et "froide " s’approche par la gauche, il la laisse passer également. Enfin, il dispose d'un compartiment de gaz froid à droite et de gaz chaud à gauche : un réservoir de chaleur sur lequel on peut puiser pour effectuer des travaux.

Cela n'est possible que pour deux raisons. Premièrement, le démon possède plus d’informations que nous : il peut voir toutes les molécules individuellement, plutôt que de se limiter à des moyennes statistiques. Et deuxièmement, il a une intention : un plan pour séparer le chaud du froid. En exploitant intentionnellement ses connaissances, il peut défier les lois de la thermodynamique.

Du moins, semble-t-il. Il a fallu cent ans pour comprendre pourquoi le démon de Maxwell ne peut en fait vaincre la deuxième loi et éviter le glissement inexorable vers un équilibre mortel et universel. Et la raison montre qu’il existe un lien profond entre la thermodynamique et le traitement de l’information – ou en d’autres termes, le calcul. Le physicien germano-américain Rolf Landauer a montré que même si le démon peut recueillir des informations et déplacer la porte (sans friction) sans coût d'énergie, une pénalité doit finalement être payée. Parce qu'il ne peut pas avoir une mémoire illimitée de chaque mouvement moléculaire, il doit occasionnellement effacer sa mémoire – oublier ce qu'il a vu et recommencer – avant de pouvoir continuer à récolter de l'énergie. Cet acte d’effacement d’informations a un prix inévitable : il dissipe de l’énergie, et donc augmente l’entropie. Tous les gains réalisés contre la deuxième loi grâce au travail astucieux du démon sont annulés par la " limite de Landauer " : le coût fini de l'effacement de l'information (ou plus généralement, de la conversion de l'information d'une forme à une autre).

Les organismes vivants ressemblent plutôt au démon de Maxwell. Alors qu’un bécher rempli de produits chimiques en réaction finira par dépenser son énergie et tomber dans une stase et un équilibre ennuyeux, les systèmes vivants évitent collectivement l’état d’équilibre sans vie depuis l’origine de la vie il y a environ trois milliards et demi d’années. Ils récupèrent l’énergie de leur environnement pour maintenir cet état de non-équilibre, et ils le font avec " intention ". Même les simples bactéries se déplacent avec " intention " vers les sources de chaleur et de nutrition. Dans son livre de 1944, Qu'est-ce que la vie ? , le physicien Erwin Schrödinger l’a exprimé en disant que les organismes vivants se nourrissent d’ " entropie négative ".

Ils y parviennent, explique Schrödinger, en capturant et en stockant des informations. Certaines de ces informations sont codées dans leurs gènes et transmises d’une génération à l’autre : un ensemble d’instructions pour récolter l’entropie négative. Schrödinger ne savait pas où les informations sont conservées ni comment elles sont codées, mais son intuition selon laquelle elles sont écrites dans ce qu'il appelle un " cristal apériodique " a inspiré Francis Crick, lui-même physicien de formation, et James Watson lorsqu'en 1953, ils pensèrent comment l'information génétique peut être codée dans la structure moléculaire de la molécule d'ADN.

Un génome est donc, au moins en partie, un enregistrement des connaissances utiles qui ont permis aux ancêtres d'un organisme – jusqu'à un passé lointain – de survivre sur notre planète. Selon David Wolpert, mathématicien et physicien de l'Institut de Santa Fe qui a organisé le récent atelier, et son collègue Artemy Kolchinsky , le point clé est que les organismes bien adaptés sont corrélés à cet environnement. Si une bactérie nage de manière fiable vers la gauche ou la droite lorsqu’il y a une source de nourriture dans cette direction, elle est mieux adaptée et s’épanouira davantage qu’une bactérie qui nage dans des directions aléatoires et ne trouve donc la nourriture que par hasard. Une corrélation entre l’état de l’organisme et celui de son environnement implique qu’ils partagent des informations en commun. Wolpert et Kolchinsky affirment que c'est cette information qui aide l'organisme à rester hors d'équilibre, car, comme le démon de Maxwell, il peut alors adapter son comportement pour extraire le travail des fluctuations de son environnement. S’il n’acquérait pas cette information, l’organisme retrouverait progressivement son équilibre : il mourrait.

Vue sous cet angle, la vie peut être considérée comme un calcul visant à optimiser le stockage et l’utilisation d’informations significatives. Et la vie s’avère extrêmement bonne dans ce domaine. La résolution par Landauer de l'énigme du démon de Maxwell a fixé une limite inférieure absolue à la quantité d'énergie requise par un calcul à mémoire finie : à savoir le coût énergétique de l'oubli. Les meilleurs ordinateurs d’aujourd’hui gaspillent bien plus d’énergie que cela, consommant et dissipant généralement plus d’un million de fois plus. Mais selon Wolpert, " une estimation très prudente de l’efficacité thermodynamique du calcul total effectué par une cellule est qu’elle n’est qu’environ 10 fois supérieure à la limite de Landauer ".

L’implication, dit-il, est que " la sélection naturelle s’est énormément préoccupée de minimiser le coût thermodynamique du calcul. Elle fera tout son possible pour réduire la quantité totale de calculs qu’une cellule doit effectuer. En d’autres termes, la biologie (à l’exception peut-être de nous-mêmes) semble prendre grand soin de ne pas trop réfléchir au problème de la survie. Cette question des coûts et des avantages de l'informatique tout au long de la vie, a-t-il déclaré, a été largement négligée en biologie jusqu'à présent.

Darwinisme inanimé

Ainsi, les organismes vivants peuvent être considérés comme des entités qui s’adaptent à leur environnement en utilisant l’information pour récolter de l’énergie et échapper à l’équilibre. Bien sûr, c'est un peu une bouchée. Mais remarquez qu’il ne dit rien sur les gènes et l’évolution, dont Mayr, comme de nombreux biologistes, supposait que l’intention et le but biologiques dépendaient.

Jusqu’où cette image peut-elle alors nous mener ? Les gènes perfectionnés par la sélection naturelle sont sans aucun doute au cœur de la biologie. Mais se pourrait-il que l’évolution par sélection naturelle ne soit en elle-même qu’un cas particulier d’un impératif plus général vers une fonction et un but apparent qui existe dans l’univers purement physique ? Cela commence à ressembler à cela.

L’adaptation a longtemps été considérée comme la marque de l’évolution darwinienne. Mais Jeremy England, du Massachusetts Institute of Technology, a soutenu que l'adaptation à l'environnement peut se produire même dans des systèmes non vivants complexes.

L’adaptation a ici une signification plus spécifique que l’image darwinienne habituelle d’un organisme bien équipé pour survivre. L’une des difficultés de la vision darwinienne est qu’il n’existe aucun moyen de définir un organisme bien adapté sauf rétrospectivement. Les " plus aptes " sont ceux qui se sont révélés meilleurs en termes de survie et de réplication, mais vous ne pouvez pas prédire ce qu'implique la condition physique. Les baleines et le plancton sont bien adaptés à la vie marine, mais d’une manière qui n’a que peu de relations évidentes entre eux.

La définition anglaise de " l'adaptavité " est plus proche de celle de Schrödinger, et même de celle de Maxwell : une entité bien adaptée peut absorber efficacement l'énergie d'un environnement imprévisible et fluctuant. C'est comme la personne qui garde l'équilibre sur un navire qui tangue pendant que d'autres tombent parce qu'elle sait mieux s'adapter aux fluctuations du pont. En utilisant les concepts et les méthodes de la mécanique statistique dans un contexte de non-équilibre, England et ses  collègues soutiennent que ces systèmes bien adaptés sont ceux qui absorbent et dissipent l'énergie de l'environnement, générant ainsi de l'entropie.

Les systèmes complexes ont tendance à s’installer dans ces états bien adaptés avec une facilité surprenante, a déclaré England : " La matière qui fluctue thermiquement est souvent spontanément transformée en formes qui sont capables d’absorber le travail de l’environnement variable dans le temps ".

Rien dans ce processus n’implique une adaptation progressive à l’environnement par le biais des mécanismes darwiniens de réplication, de mutation et d’héritage des traits. Il n'y a aucune réplication du tout. "Ce qui est passionnant, c'est que cela signifie que lorsque nous donnons un aperçu physique des origines de certaines des structures d'apparence adaptée que nous voyons, il n'est pas nécessaire qu'elles aient eu des parents au sens biologique habituel", a déclaré England. " Vous pouvez expliquer l'adaptation évolutive à l'aide de la thermodynamique, même dans des cas intrigants où il n'y a pas d'auto-réplicateurs et où la logique darwinienne s'effondre " - à condition que le système en question soit suffisamment complexe, polyvalent et sensible pour répondre aux fluctuations de son environnement.

Mais il n’y a pas non plus de conflit entre l’adaptation physique et l’adaptation darwinienne. En fait, cette dernière peut être considérée comme un cas particulier de la première. Si la réplication est présente, alors la sélection naturelle devient la voie par laquelle les systèmes acquièrent la capacité d'absorber le travail – l'entropie négative de Schrödinger – de l'environnement. L’auto-réplication est en fait un mécanisme particulièrement efficace pour stabiliser des systèmes complexes, et il n’est donc pas surprenant que ce soit ce que la biologie utilise. Mais dans le monde non vivant où la réplication ne se produit généralement pas, les structures dissipatives bien adaptées ont tendance à être très organisées, comme les ondulations de sable et les dunes cristallisant à partir de la danse aléatoire du sable soufflé par le vent. Vue sous cet angle, l’évolution darwinienne peut être considérée comme un exemple spécifique d’un principe physique plus général régissant les systèmes hors équilibre.

Machines à prévoir

Cette image de structures complexes s’adaptant à un environnement fluctuant nous permet également de déduire quelque chose sur la manière dont ces structures stockent l’information. En bref, tant que de telles structures – qu’elles soient vivantes ou non – sont obligées d’utiliser efficacement l’énergie disponible, elles sont susceptibles de devenir des " machines à prédiction ".

C'est presque une caractéristique déterminante de la vie que les systèmes biologiques changent d'état en réponse à un signal moteur provenant de l'environnement. Quelque chose se passe ; vous répondez. Les plantes poussent vers la lumière ; elles produisent des toxines en réponse aux agents pathogènes. Ces signaux environnementaux sont généralement imprévisibles, mais les systèmes vivants apprennent de leur expérience, stockant des informations sur leur environnement et les utilisant pour orienter leurs comportements futurs. (Photo : les gènes, sur cette image, vous donnent simplement les éléments essentiels de base à usage général.)

La prédiction n’est cependant pas facultative. Selon les travaux de Susanne Still de l'Université d'Hawaï, de Gavin Crooks, anciennement du Lawrence Berkeley National Laboratory en Californie, et de leurs collègues, prédire l'avenir semble essentiel pour tout système économe en énergie dans un environnement aléatoire et fluctuant.

Still et ses collègues démontrent que le stockage d'informations sur le passé qui n'ont aucune valeur prédictive pour l'avenir a un coût thermodynamique. Pour être le plus efficace possible, un système doit être sélectif. S'il se souvient sans discernement de tout ce qui s'est passé, il subit un coût énergétique important. En revanche, s'il ne prend pas la peine de stocker la moindre information sur son environnement, il aura constamment du mal à faire face aux imprévus. "Une machine thermodynamiquement optimale doit équilibrer la mémoire et la prédiction en minimisant sa nostalgie - les informations inutiles sur le passé", a déclaré un co-auteur, David Sivak, maintenant à l'Université Simon Fraser à Burnaby, en Colombie-Britannique. En bref, il doit devenir capable de récolter des informations significatives, celles qui sont susceptibles d'être utiles à la survie future.

On pourrait s’attendre à ce que la sélection naturelle favorise les organismes qui utilisent efficacement l’énergie. Mais même les dispositifs biomoléculaires individuels, comme les pompes et les moteurs de nos cellules, devraient, d’une manière ou d’une autre, tirer les leçons du passé pour anticiper l’avenir. Pour acquérir leur remarquable efficacité, dit Still, ces appareils doivent " implicitement construire des représentations concises du monde qu’ils ont rencontré jusqu’à présent, leur permettant d’anticiper ce qui va arriver ".

Thermodynamique de la mort

Même si certaines de ces caractéristiques fondamentales du traitement de l’information des systèmes vivants sont déjà stimulées, en l’absence d’évolution ou de réplication, par la thermodynamique hors équilibre, on pourrait imaginer que des caractéristiques plus complexes – l’utilisation d’outils, par exemple, ou une coopération sociale – doivent être fournies par évolution.

Eh bien, ne comptez pas là-dessus. Ces comportements, généralement considérés comme du domaine exclusif de la niche évolutive très avancée qui comprend les primates et les oiseaux, peuvent être imités dans un modèle simple constitué d'un système de particules en interaction. L’astuce est que le système est guidé par une contrainte : il agit de manière à maximiser la quantité d’entropie (dans ce cas, définie en termes de différents chemins possibles que les particules pourraient emprunter) qu’il génère dans un laps de temps donné. 

La maximisation de l’entropie a longtemps été considérée comme une caractéristique des systèmes hors équilibre. Mais le système de ce modèle obéit à une règle qui lui permet de maximiser l’entropie sur une fenêtre de temps fixe qui s’étend dans le futur. En d’autres termes, il fait preuve de prévoyance. En effet, le modèle examine tous les chemins que les particules pourraient emprunter et les oblige à adopter le chemin qui produit la plus grande entropie. En gros, c’est généralement la voie qui laisse ouverte le plus grand nombre d’options quant à la manière dont les particules pourraient se déplacer ultérieurement.

On pourrait dire que le système de particules éprouve une sorte de besoin de préserver sa liberté d’action future, et que ce besoin guide son comportement à tout moment. Les chercheurs qui ont développé le modèle – Alexander Wissner-Gross de l’Université Harvard et Cameron Freer, mathématicien du Massachusetts Institute of Technology – appellent cela une " force entropique causale ". Dans les simulations informatiques de configurations de particules en forme de disque se déplaçant dans des contextes particuliers, cette force crée des résultats qui suggèrent étrangement l’intelligence.

Dans un cas, un grand disque a pu " utiliser " un petit disque pour extraire un deuxième petit disque d’un tube étroit – un processus qui ressemblait à l’utilisation d’un outil. Libérer le disque a augmenté l'entropie du système. Dans un autre exemple, deux disques placés dans des compartiments séparés ont synchronisé leur comportement pour tirer un disque plus grand vers le bas afin qu'ils puissent interagir avec lui, donnant ainsi l'apparence d'une coopération sociale.

Bien entendu, ces simples agents en interaction bénéficient d’un aperçu de l’avenir. La vie, en règle générale, ne le fait pas. Alors, dans quelle mesure est-ce pertinent pour la biologie ? Ce n’est pas clair, même si Wissner-Gross a déclaré qu’il travaillait actuellement à établir " un mécanisme pratique et biologiquement plausible pour les forces entropiques causales ". En attendant, il pense que cette approche pourrait avoir des retombées pratiques, offrant un raccourci vers l’intelligence artificielle. " Je prédis qu'un moyen plus rapide d'y parvenir sera de découvrir d'abord un tel comportement, puis de travailler à rebours à partir des principes et contraintes physiques, plutôt que de travailler en avant à partir de techniques de calcul ou de prédiction particulières ", a-t-il déclaré. En d’autres termes, trouvez d’abord un système qui fait ce que vous voulez qu’il fasse, puis déterminez comment il le fait.

Le vieillissement est également traditionnellement considéré comme un trait dicté par l’évolution. Les organismes ont une durée de vie qui crée des opportunités de reproduction, raconte l'histoire, sans inhiber les perspectives de survie de la progéniture du fait que les parents restent trop longtemps et se disputent les ressources. Cela semble sûrement faire partie de l'histoire, mais Hildegard Meyer-Ortmanns, physicienne à l'Université Jacobs de Brême, en Allemagne, pense qu'en fin de compte, le vieillissement est un processus physique et non biologique, régi par la thermodynamique de l'information.

Ce n’est certainement pas simplement une question d’usure. "La plupart des matériaux souples dont nous sommes constitués sont renouvelés avant d'avoir la chance de vieillir", a déclaré Meyer-Ortmanns. Mais ce processus de renouvellement n'est pas parfait. La thermodynamique de la copie de l'information dicte qu'il doit y avoir un compromis entre précision et énergie. Un organisme dispose d’une réserve d’énergie limitée, donc les erreurs s’accumulent nécessairement avec le temps. L’organisme doit alors dépenser une énergie de plus en plus importante pour réparer ces erreurs. Le processus de renouvellement finit par produire des copies trop défectueuses pour fonctionner correctement ; la mort suit.

Les preuves empiriques semblent le confirmer. On sait depuis longtemps que les cellules humaines en culture semblent capables de se répliquer au maximum 40 à 60 fois (appelée limite de Hayflick ) avant de s'arrêter et de devenir sénescentes. Et des observations récentes sur la longévité humaine suggèrent qu'il pourrait y avoir une raison fondamentale pour laquelle les humains ne peuvent pas survivre bien au-delà de 100 ans .

Il y a un corollaire à ce besoin apparent de systèmes prédictifs, organisés et économes en énergie qui apparaissent dans un environnement fluctuant hors d’équilibre. Nous sommes nous-mêmes un tel système, comme le sont tous nos ancêtres jusqu’à la première cellule primitive. Et la thermodynamique hors équilibre semble nous dire que c’est exactement ce que fait la matière dans de telles circonstances. En d’autres termes, l’apparition de la vie sur une planète comme la Terre primitive, imprégnée de sources d’énergie telles que la lumière du soleil et l’activité volcanique qui maintiennent les choses hors d’équilibre, ne commence pas à sembler un événement extrêmement improbable, comme de nombreux scientifiques l’ont supposé, mais pratiquement inévitable. En 2006, Eric Smith et feu Harold Morowitz de l'Institut de Santa Fe ont soutenu que la thermodynamique des systèmes hors équilibre rend l'émergence de systèmes organisés et complexes beaucoup plus probable sur une Terre prébiotique loin de l'équilibre qu'elle ne le serait si les ingrédients chimiques bruts étaient juste assis dans un " petit étang chaud " (comme le disait Charles Darwin) en mijotant doucement.

Au cours de la décennie qui a suivi la première apparition de cet argument, les chercheurs ont ajouté des détails et des perspectives à l’analyse. Les qualités qu’Ernst Mayr considérait comme essentielles à la biologie – le sens et l’intention – pourraient émerger comme une conséquence naturelle des statistiques et de la thermodynamique. Et ces propriétés générales peuvent à leur tour conduire naturellement à quelque chose comme la vie.

Dans le même temps, les astronomes nous ont montré combien de mondes existent – ​​selon certaines estimations, ils se chiffrent en milliards – en orbite autour d’autres étoiles de notre galaxie. Beaucoup sont loin de l’équilibre, et au moins quelques-uns ressemblent à la Terre. Et les mêmes règles s’appliquent sûrement là aussi. 



 

Auteur: Internet

Info: https://www.quantamagazine.org/how-life-and-death-spring-from-disorder-20170126/ Philip Ball, 26 janv 2017 voir dialogues avec l'ange et la la Fondation Simons

[ au coeur de FLP ] [ bayésianisme ] [ mémoire tétravalente ] [ épigénétique ] [ filtrage mémoriel ] [ constante ouverture ] [ citation s'appliquant à ce logiciel ] [ expérience accumulée ] [ prospective ouverte ] [ curiosité moteur ] [ scalabilité ] [ entendement ] [ théorie du tout ] [ astrobiologie ] [ orthogenèse ]

 

Commentaires: 0

Ajouté à la BD par miguel