Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 65
Temps de recherche: 0.0577s

théologie

Penser, réfléchir... Le raisonnement d'origine et sa maîtrise, très simples, ont suffi à l'expansion des humains en tant que race grégaire "à mémoire externe". Un très léger recul de la raison, multiplié par la solidarité des hommes, a été suffisant pour assurer sa domination sur les autres espèces évoluées.

Tout comme la sémiotique de Peirce, ou la théorie de la communication, cette réflexion simple, à faible continuité, s'articule sur l'inamovible triade "réalité" "interaction" "réaction". Ainsi, de ce qu'on pourrait aussi nommer "signifiant", "interprétant", signifié" est issue la logique formelle. Elle s'est développée subséquemment sur trois axes de savoirs accumulés, le langage, les maths et l'histoire.

Résultants de ces 3 outils, mais rarement en concordance sur les trois plans, sont apparus des modèles, référents, exemples, etc. Desquels on a pu montrer des différences, analogie, oppositions, alliances, etc... Le principe du tiers exclus et sa maîtrise était bien suffisant, puissant et efficace pour assurer la suprématie humaine.

On dirait bien que le vingtième siècle, (époque de l'apparition de mon infime moi), a fait prendre conscience de trois éléments supplémentaires, dérivés, mais toujours logiques, pour effectuer de meilleurs calculs/réflexions. Ils sont de récente apparition mais seront visiblement toujours plus utilisés de par le développement de la technologie et parce que, une fois encore, nos connaissance sont grégaires. Je veux parler de l'itération, de la singularité et des statistiques.

Le premier montre qu'il y a un tâtonnement incessant, qu'on pourrait nommer "exploration des possibilités de solutions", comme le scan répété d'une situation depuis un point de vue unique et relativement stable. Le deuxième fut de réaliser que chaque "émergence du vivant" possède une singularité, quasi absolue, mais néanmoins combinable avec une infinité d'autres singularités, un peu comme une pièce de puzzle adaptable (pensons à la reproduction pour faire simple). Et le troisième, c'est qu'il y a (qu'il faut ?) en même temps une variété extraordinaire et innombrable de toute les singularités d'une branche (espèce, taxon), ce qui semble nécessaire pour conserver les meilleures chances de survie dans des milieux qui ne sont jamais stables par définition. En ce sens on pourrait penser que plus une espèce dure plus elle est miroirs de son adaptation à un milieu.

Mais c'est beaucoup plus compliqué que cela. Ce 3e point souligne donc la nécessité d'une "variété de l'innombrable", autrement la vie présente sans cesse la plus grande ouverture possible en multipliant les singularités et les variétés d'espèces (ou végétaux ou autres, eux-même interdépendants et donc indissociables de Gaïa) qui réussissent. C'est ici, en fonction de l'évolution des mathématiques, et l'étude affinée des grands nombres d'individus (on pourra penser ici aux statistiques médicales humaines) que nous basculons nécessairement dans ce qui devient la sciences post-dénombrement : les probabilités.

Et là, l'arrivée de l'indéterminisme d'Heisenberg aidant, les spécialistes de la mécanique quantique seront bien contents de pouvoir utiliser ces outils statistiques probabilistes pour s'attaquer à mieux comprendre la réalité qui s'offre à eux. En ce sens, partant de ce nouveau concept, cette qualité mélangée onde-corpuscule incompréhensible à nos sens (parce qu'orthogonale ?), et au regard des derniers constats de l'épigénétique, on peut en venir à imaginer une "source" avec des potentialités de calculs très au-delà des plus incroyables computers quantiques imaginables.

En effet, cette "origine", ou "principe-démiurge", "Dieu", "Extraterrestres" ou autre... serait capable, en fonctionnant par - et avec - les résonances d'un "réel projeté par Elle-même", de s'adapter en continu avec les impondérables au-delà de sa préhension. Avec diverses vitesses de réaction/adaptation en fonction du niveau de taille/développement de la vie.

Nous sommes bien sûr au niveau local avec cet exemple (Gaïa). Ce qui, et c'est bien amusant, conforte l'idée de "divinités régionales", planétaires par exemple, qui pourraient dès lors laisser supposer, ou imaginer, tout un système d'"entités de ce genre", avec des interactions, tensions entre elles... hiérarchies, etc.. Elargissant et complexifiant les horizons, ce qui pourra éventuellement rejoindre des notions de niveaux vibratoires et autres univers parallèles.

Bref, de quoi concocter de bien belles épopées fantastiques et autres space opera métaphysiques..

Auteur: Mg

Info: 21 février 2020

[ biophysique ] [ projectionniste ] [ yotta-physique ] [ prospectives ]

 
Commentaires: 3
Ajouté à la BD par miguel

FLP post-Peirce

L'"ouverture" du dictionnaire intriqué FLP, nourrie entre autres de l'idée que chaque mots est quasi-esprit (voire symbole), procède beaucoup de l'inventaire et d'un recensement exhaustif, celui de tous les termes créés et imaginables sur cette planète - surtout avec le double apport des intraduisibles et des appellations scientifiques pointues et spécialisées. Tout ça ramené au français. Vocables qui dans l'idéal devraient être utilisés, et sémantiquement précisés, via ces axes, par ordre d'importance. 

1) leur sens-étymologie. Avec une contextualisation animale si possible, distanciation auto-analytique du mammifère humain intégré dans le concert général de la vie. Par exemple les mots-idées-concepts comme foyer-logis-abri seront associés avec ceux de terrier-nid-tanière.

2) leur contexte, syntaxique, syntagmatique,  bio-taxonomique même,  pour qui s'y intéresse et a le temps. En prenant au mieux en compte les paramètres amenés par l'auteur de l'extrait : temporels, topologiques, de formacja, situation politique, sexe, etc.  

3) les caractéristiques de celle ou celui qui insère et étiquette l'extrait sur FLP, c'est à dire qu'il doit s'agir une démarche réflexive sincère, qui pourra éventuellement être analysée par d'autres sous cet angle. 

Ces trois points précédant bien sûr les éventuelles corrections de participants qui aident ainsi à préciser-organiser les mots-langage-tiercités de notre espèce-communauté par la grâce des possibilités de classements intriqués de FLP. Tiercités elles-mêmes images-symboles linguistiques des détails du décor-réalité-priméité que le cerveau humain-secondéité formule-symbolise, avec un langage et des mots toujours plus affinés. 

Et puis, dans le but de développer une meilleure ossature de classification de cette lexicologie perspectiviste, vint l'idée de réfléchir à un concept de tétravalence sémantique, suceptible de dépasser et consolider la puissante triade sémiotique de C.S. Pierce. 

Parce que la quadrivalence, symétrique, d'apparence moins souple et insaisissable que le ternaire, semble offrir, à l'image des bases de l'ADN, de bonnes pistes en terme de taxologie et de développements taxinomiques. Surtout en des heures où l'intrication quantique a montré de bien des manières combien le langage humain est devenu insuffisant, dépassé, dès qu'il doit gérer des problématiques contre-intuitives. En clair : la pensée binaire qui sous-tend nos idiomes-raisonnements, malgré toutes ses possibilités de nuances, a beaucoup de peine à empoigner sémantiquement le contre-intuitif quantique comme, par exemple, ce qu'a pu montrer Alain Aspect. (Qui a reçu le prix Nobel avec 2 autres confrères ce mois. Bravo à eux).  

Il suffirait donc d'intégrer un 4e élément à la triade de Peirce. Hum... 

Attardons nous d'abord sur le concept de tiercité ; qui englobe les infinis signes-signaux possibles générés par les interactions-chocs entre acteurs-objets-secondéités issus de la priméité : vents contre arbres, météorites percutant la terre, hommes vs animaux, réflexion contre idées, animaux entre eux, insectes avec végétaux, etc. Signes qui peuvent se transformer en routines, plus ou moins éphémères, dont certaines deviendront des traces-symboles, qui s'organiseront ensuite pour "durer un peu plus", à l'image du langage des hommes. On remarquera au passage qu'existe au niveau de chaque monade humaine un processus d'itération-imprégnation-adaptation qui va en progressant, se stabilise, et régresse avec l'âge, bref le canevas de toutes nos vies. Ici monades-bulles-existences humaines aptes à laisser des "combinaisons sémantiques" dans le corpus linguistique communautaire. Bribes que certains formuleront par le terme assez dérisoire de postérité. 

Tiens, voilà que nous avons dérivé, l'air de rien, pour nous retrouver en pleine secondéité humaine. Examinons alors l'autre bout de la triade, la priméité, ce réel-source-décor, dont tout est issu ?...  

Thème à discuter avec un alien, qui nous décrira probablement quelque chose qui n'a rien à voir avec ce que nous connaissons, certes. Mais - avec la distanciation et le temps nécessaires - nous devrions certainement pouvoir relier SA priméité-réalité à lui avec NOTRE priméité-réel à nous. N'est que parce qu'on imagine mal plusieurs "sources primordiales", même dans un GRAND TOUT infini, emplis de multivers intriqués, en constantes et étourdissantes interactions qui mélangent vitesses et échelles. Source indicible et insondable au point de tant "séparer" les entités émergées en son sein que ces dernières seraient incapables de communiquer entre elles ? Allons allons... Des étages et hiérarchies infinies oui...  Mais stop. 

Ici encore nous voilà en train d'exprimer notre propre reflet-image de secondéités qui observent, formulent, et projettent.

Qu'est-ce alors que cette secondéité ? Ce JE-NOUS monade. Mais aussi tout sujet-élément-idée-entité susceptible d'interagir avec moi, lui, ou les autres. C'est à dire tout élément jailli de la priméité-univers... Comme ce caillou au sol, ou la civilisation alien des lignes précédentes ? Interactions, répétons-le, à la sources des signes-tiercités-langage (humain limité certes ici... ) Aptes à s'auto-analyser ?!?!?!

Signes qui nomment-définissent les "choses-autres" avec des mots "quasi-esprits"... En amont de manipulations sémantiques qui s'ensuivront. Hum Hum...

On remarquera qu'au 3e étage tiercitaire des signes-idées analysés-partagés, communications mimétiques et autres, les possibilités sont aussi infinies qu'aux deux autres niveaux. On notera aussi que beaucoup de ces idiomes-signes consensus ne peuvent se développer qu'au travers de longs développements évolutifs, bien plus encore pour qui voudra aller au-delà des pulsions-interaction basiques - de l'ordre de la physique pure et du simple bon sens gravitationnel - avant de devenir pulsions de vie, de survie surtout. Tout ça se développant/envoyant/recevant des signes que bientôt le langage organisera. Combien de temps, d'éons, nécessaires pour arriver au héron et sa magnifique spécialisation de chasseur de poissons ? Bestiole capable de montrer à ses petits comment attirer les proies aquatiques en mettant des insectes dans l'eau. J.L. Borges aura bien aidé à le comprendre. L'existence, les existences ensembles sont des signes qui se mélangent et parfois se répondent.

Nous voilà donc avec le langage externalisé, humain ; magnifique engin télépathique communautaire trans-époques, (oui oui je vous parle, à vous chères âmes de l'an 2050... ah ah ah). Mais aussi oeillère-buttée, puisqu'on dirait bien que la bulle linguistique humaine nous isole via quelque chose qui ressemble à un solipsisme de la race, une monade collective. Le déséquilibre planétaire dont nous sommes source et victime apparaissant comme un de ses effets. Monade de primates, secondéité collective, machin qui "agit" bien plus qu'il interagit, alors qu'elle devrait probablement comprendre que son action sur la matrice qui l'a fait émerger se retourne contre elle. Dialogue terre-hommes où ces derniers feraient mieux de tenir compte des "signes" de Gaïa. Gamin qui réalise qu'il devrait faire un peu plus attention à ce que lui exprime, sans mots, sa Moman !!

Tout ceci est fort intéressant... mais le parcours des lignes qui précèdent ramène sans désemparer vers nous qui lisons-écrivons ces lignes, encore et toujours représentants du concept de secondéité, de la prison humaine (même si dans un système ternaire chaque pointe peut être pensée comme centrale, ah ah ah).

En bref nos rodomontades sémantiques semblent faire un peu trop abstration du reste, surtout à partir de l'ère industrielle. Déspiritualisation, sécularisation ?

Précisons et resituons : il est question d'une secondéité-hommes, issue de la priméité matrice univers-terre, en train de développer son propre champ exponentiel de tiercités, dont Internet fait la démonstration chaque jour. (Ainsi pour FLP, le web, hors les films et images, n'est qu'un amas sémantique, souvent désordonné, babélien... géré numériquement par des machines cybernétiques. Web au sein duquel - ou à la pointe duquel -, notre application se propose d'ordonner-classifier-recenser les mots-pensées en les intriquant. L'homme singe ne change pas, il fait des listes, encore... Désormais plus compliquées.) 

Mais de modification de la triade de Peirce, rien ne semble possible. Trop costaud.

Résignons-nous, c'est d'ici - au sein même de nos sémantiques, qu'il faudra chercher à identifier... puis établir-asseoir-développer... un système tétravalent en faisant bien gaffe de demeurer dans le langage, strico sensu. Français même, afin de ne pas (trop) nous perdre. 

Résumons : une secondéité bien comprise : objet, être, participant, interprétant, réfléchisseur, observateur... va nécessairement - en fonction d'infinis paramètres, (pour faire simple nous dirons "en fonction des contextes") - GENERER quelque chose. Autrement dit une secondéité, planète, arbre, fusée lunaire, caillou, civilisation, atome, (Ah non, pas atome... kr kr kr, le quantique échappe à tout ça), une fois en interaction avec une autre secondéité, ou avec un des autres pôles de notre triplette peircéenne, va ORIENTER le résultat de l'interaction. A l'image du météore qui percute l'océan et dont la trajectoire est modifiée-stoppée par la masse liquide. Où, inversément, de l'océan secoué par le météore. Ainsi, s'infléchissant et s'influençant mutuellement, les deux acteurs d'un choc-interaction enfantent, délivrent, consciemment ou pas, des tiercités. Ici vagues et tsunami, vapeurs et tremblement de terre... On constatera au passage que ce genre de tiercité océano-sismiques convient mieux à une approche téléologique terrestre (pensons à l'extinction des dinosaures) que nos tiercités linguistiques, beaucoup plus futiles et superficielles d'apparence. Mais c'est à voir.

Se pose ici aussi, nécessairement peut-être, une question étonnante, évidente : celle de la responsabilité de secondéités telles que la notre. Mais pas que. Interrogation qui ouvre les perspectives, vers l'inconscient, l'épigénétique, le panpsychisme, l'animisme... La science-fiction....  Question qui exponentialise aussi les possibilités de bascule historique, de déclics...  de déclenchements, d'effets papillons infimes, suceptibles de modifier notre réél et sa continuité... Telle la mouche écrasée qui inverse la polarité de la planète. Nous pensons que cette question ouvre un peu plus les possibilités d'une intervention externe, invisible, qui pourra orienter les choses, que ce soit souvent ou pas. Il est vrai que les dernières découvertes sur les mécanismes épigénétiques montrent que de telles interactions - invisibles et souvent contre-intuitives - se passent sans cesse, que ce soit entre nous et les fourmis ou entre le soleil et les végétaux, etc. Mais basta.

Une secondéité-OBSERVATRICE, disons évoluée comme nous, par la magie des signes organisés et du langage, développe sa réprésentation-compréhension du monde. Elle crée et développe son univers consensuel, transmute du réel-matériel en langage esprit-virtuel. 

C'est donc dans l'espace sémantique humain que nous nous proposerons de traquer les émergences tétravalentes, en partant de celles qui se trouvent DEJA (souvent en germe à l'image du chiasme et éventuellement de l'oxymoron) au sein des raisonnements du langage des interprétants-humains. Solide assise - au centre de la triade peircéenne - pour une tâche au très long cours, celle de notre propre auto-analyse via l'étude-classification sémantique du corpus linguistique d'humains-transcripteurs-secondéités, vus comme une "race du verbe" fondamentalement tétravalente

Monade des hommes formulée-présentée ci-dessous, au centre, de trois manières assez similaires.

a) priméité   -  secondéité  (récepteur, émetteur, influenceur.... )                               -  tiercité

b) réalité    -  humains responsables-irresponsables, humanistes, dictateurs, etc...             -  effets sur le monde 

c) signifiant -  interprétant (pouvoir-ouverture-transpositeur-orienteur-confusion ontologique-déverrouillage mental)  -  signifié     

Nous nous référerons à ces trois exemples comme socle au développement de notre idée, gardant en tête que si l'humanité est, comme tout élément, plus ou moins transitoire, la durabilité et les effets de sa lexico-littérature - par comparaison avec les développements de la vie-adn - sont risibles. Ce qui n'empêche rien. 

Au-delà de l'analogie comme quoi ADN et écriture sont "transgénérationnels", on entrevoit les incroyables possibilités de bases tétravalentes combinées sémantiquement, quelque chose qui dépasse littéralement les auteurs de ces lignes, à savoir une forme de mémoire évolutionnaire sur le temps long (comme les requins), mémorisée/structurée sur d'interminables chaines ADN, chaines aptes, par exemple, à réutiliser une imprégnation-expérience vécue très en arrière dans le temps.

Il s'agit selon nous d'une entreprise pré-mémétique.

Auteur: Mg

Info: sept oct 2022 - réflexion possiblement liée à la notion de septénaire, articulation binaire + ternaire dont FLP s'amuse à recenser les déclinaisons

[ citation s'appliquant à ce logiciel ] [ méthodologie ] [ métalinguistique ] [ prospective ] [ au coeur de FLP ]

 
Commentaires: 4
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel