Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 14
Temps de recherche: 0.0333s

exploration spatiale

Astrolinguistique : comment communiquer en cas de contact avec une civilisation extraterrestre ?
L’astrolinguistique, xénolinguistique, ou encore exolinguistique, est le domaine de recherche de la linguistique qui s’attèle à déterminer et développer des modèles de langages non-humains (extraterrestres) dans le cas où un premier contact avec une civilisation extraterrestre intelligente serait effectué. Un tel événement ne s’étant toujours pas produit, ce domaine reste encore hypothétique, mais donne lieu à un véritable travail de recherche universitaire de la part des scientifiques.

L’univers observable compte des centaines de millions de galaxies, chacune contenant à leur tour des centaines de millions d’étoiles et de planètes potentielles. L’existence de civilisations extraterrestres intelligentes n’est donc pas à exclure. Si aucun contact avec l’Homme ne s’est encore produit, la possibilité d’un tel événement est envisageable. Tant et si bien que les scientifiques commencent déjà à prévoir cette éventualité en tentant de développer des outils de communication.

Loin d’être de la science-fiction, l’astrolinguistique est une discipline universitaire qui s’est développée au cours des 30 dernières années. Certaines universités, comme la Bowling Green State University (États-Unis), l’ont même intégrée à leurs cours afin de former des chercheurs spécialisés dans ce domaine. La xénolinguistique est en réalité une sous-famille de la linguistique théorique dont l’objectif est la construction et la déconstruction de langages fictifs ou existants.

(Le langage des heptapodes utilisé dans le film Premier Contact a été développé par la linguiste Jessica Coon et le scientifique Stephen Wolfram. Il est considéré comme scientifiquement plausible par la communauté scientifique." photo de l'article original absente)

L’un des précurseurs du domaine est le célèbre linguiste américain Noam Chomsky. Pour ce dernier, la théorie de la grammaire universelle empêcherait l’Homme de comprendre naturellement une civilisation extraterrestre. Cette théorie postule que les bases élémentaires et communes de la grammaire humaine sont génétiquement prédéterminées, encodées dans le génome, indépendamment de la culture ou de l’environnement. L’Homme devrait donc difficilement et lentement déchiffrer chaque structure de ce nouveau langage.

Pour la linguiste canadienne Keren Rice, spécialisée dans les langages indigènes, une communication extrêmement basique entre humains et extraterrestres serait possible tant que les éléments contextuels primitifs restent les mêmes. Par exemple, même si les termes pour désigner une planète changent, il est fort probable qu’une civilisation extraterrestre connaisse l’objet lui-même, c’est-à-dire qu’elle ait déjà vu une planète.

L’astrolinguistique est plus largement intégrée au domaine de la Communication avec une intelligence extraterrestre (CETI) sur lequel se penchent de nombreux chercheurs et institutions scientifiques. La question fait régulièrement l’objet de discussions scientifiques lors de l’American Association for the Advancement of Science.

Généralement, quatre formes de langages possibles sont définis : le langage mathématique, le langage pictural, le langage algorithmique et multimodal, et le langage naturel. Les outils linguistiques développés dans le cadre de ces recherches s’appuient sur des études actuelles visant à décrypter des langages humains encore non déchiffrés, comme le Linéaire A, un langage utilisé en Crête ancienne entre 1900 et 1400 av. J.-C.

Le Lincos (pour lingua cosmica) est un des tous premiers langages mathématiques développé par le mathématicien allemand Hans Freudenthal au début des années 1960, dans son livre Lincos: Design of a Language for Cosmic Intercourse. Il utilise une structure mathématique basique pour transmettre des messages, destinée à être comprise par n’importe quelle civilisation intelligente. Par la suite, des scientifiques comme Lancelot Hogben et Carl Sagan proposeront eux aussi des syntaxes reposant sur des principes mathématiques.

Ce disque est embarqué par les sondes Voyager 1 et 2 afin de raconter l’histoire de la Terre. Elle contient un message de bienvenu en 60 langages différents, des échantillons de musiques de plusieurs styles et ethnies, des sons d’origine humaine ainsi que des schémas et informations électroniques compréhensibles par une civilisation avancée.

De la même manière, le message d’Arecibo contenait quelques structures atomiques, les briques de l’ADN, un schéma du Système solaire et un dessin du télescope Arecibo lui-même. Un hybride de langage mathématique et pictural, considéré comme scientifiquement réaliste, a été développé pour le film Premier Contact, sous la direction de la linguiste Jessica Coon.

Le langage multimodal combine plusieurs systèmes de communication afin de maximiser les chances de compréhension. Le Teen-Age Message développé par des scientifiques russes en est un bon exemple.

Ce dernier combine un signal radio destiné à permettre aux destinataires d’en remonter la source, une musique jouée sur un thérémine, ainsi qu’une association d’images semblables à celles du message d’Arecibo. Tandis que le langage algorithmique prend la forme d’un code informatique pouvant être exécuté sur n’importe quelle machine.

Enfin, le langage naturel renvoie au cas où une civilisation communiquerait, volontairement ou non, avec nous dans son langage natif. Dans ce cas, les scientifiques devraient déconstruire le langage en isolant des schémas répétitifs, des rythmes, des taux de répétition, des structures complexes et des propriétés linguistiques sous-jacentes renvoyant à un système de communication intelligent.

Auteur: Internet

Info: https://trustmyscience.com, Thomas Boisson 27 mars 2019

[ rencontre exotique ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

question

La pensée est-elle contenue dans le langage?

Suite de notre série d’été: selon les scientifiques, les mots suggèrent toujours plus que la pensée qui les a fait naître.

" Me promenant en ville, l’autre jour, j’ai entendu tout à coup un miaulement plaintif au-dessus de moi. J’ai levé les yeux. Sur le bord du toit se trouvait un petit chat. "

Il suffit de lire (ou d’écouter) ce début d’histoire pour " voir " aussitôt la scène: le toit, le petit chat, le promeneur qui le regarde. A quoi ressemble ce chat? Peu importe qu’il soit blanc ou noir, le mot renvoie à ce que tout le monde connaît: un animal à quatre pattes, une queue, des oreilles pointues, des yeux ronds, qui miaule (et parfois ronronne).

Mais sans l’existence d’un mot ­général qui désigne tous les types de chats – roux, noirs, blancs, tigrés, assis ou debout, gros ou maigrelets… –, aurait-on une idée générale de l’espèce " chat "? Notre monde mental ne serait-il pas dispersé en une myriade d’impressions, de situations, d’objets tous différents? Deux conceptions s’opposent à ce propos.

La plupart des philosophes, psychologues et linguistes, au début du XXe siècle, partagent cette idée: le langage étant le propre de l’homme, c’est lui qui donne accès à la pensée. Sans langage, il n’y aurait pas de pensée construite: nous vivrions dans un monde chaotique et brouillé fait d’impressions, de sensations, d’images fugitives.

C’est ce que pensait Ferdinand de Saussure, le père de la linguis­tique contemporaine, qui affirmait dans son Cours de linguistique générale (1916): " Philosophes et linguistes se sont toujours accordés à reconnaître que sans le secours des signes nous serions incapables de distinguer deux idées d’une façon claire et constante. Prise en elle-même, la pensée est comme une nébuleuse où rien n’est nécessairement délimité. " Et il ajoutait: " Il n’y a pas d’idées préétablies, et rien n’est distinct avant l’apparition de la langue. " Vers la même époque, le philosophe du langage Ludwig Witt­genstein était parvenu à la même conclusion: " Les limites de mon langage signifient les limites de mon monde ", écrit-il dans le Tractacus (1921). Un peu plus tard, dans Pensée et Langage (1933), le psychologue russe Lev S. Vygotski le dira à sa manière: " La pensée n’est pas seulement exprimée par les mots: elle vient à l’existence à travers les mots. "

Si le langage produit la pensée, cette théorie a de nombreuses conséquences. D’abord que la linguis­tique tient une place centrale dans la connaissance du psychisme humain et que décrypter les lois du langage revient à décrypter les lois de la pensée. Sans le mot " chat ", on ne percevrait que des cas particuliers: des chats roux, blancs ou tigrés, sans jamais comprendre qu’ils appartiennent à une même catégorie générale. Le langage donne accès à cette abstraction, déverrouille la pensée.

Mais est-on vraiment sûr que, sans l’existence du mot " chat ", notre pensée serait à ce point diffuse et inconsistante, que, privé du mot, l’on ne pourrait pas distinguer un chat d’un chien? Les recherches en psychologie cognitive, menée depuis les années 1980, allaient démontrer que les nourrissons disposent, bien avant l’apparition du langage, d’une vision du monde plus ordonnée qu’on ne le croyait jusque-là.

Ces recherches ont donné du poids aux linguistiques cognitives, apparues dans les années 1970, qui ont introduit une véritable révolution copernicienne dans la façon d’envisager les relations entre langage et pensée. Les linguistiques cognitives soutiennent en effet que les éléments constitutifs du langage – la grammaire et le lexique – dépendent de schémas mentaux préexistants. Pour le dire vite: ce n’est pas le langage qui structure la pensée, c’est la pensée qui façonne le langage. L’idée du chat précède le mot, et même un aphasique, qui a perdu l’usage du langage, n’en reconnaît pas moins l’animal.

Les conséquences de cette approche allaient être fondamentales. Tout d’abord la linguistique perdait son rôle central pour comprendre le psychisme humain. Et la psy­chologie cognitive, qui se propose de comprendre les états mentaux, devait prendre sa place.

Ainsi, pour comprendre le sens du mot " chat ", il faut d’abord comprendre le contenu de la pensée auquel le mot réfère. Pour la psychologue Eleanor Rosch (une référence essentielle pour les linguistiques cognitives), l’idée de " chat " se présente sous la forme d’une image mentale typique appelée " prototype ", correspondant à un modèle mental courant: l’animal au poil soyeux, yeux ronds, moustache, qui miaule, etc. La représentation visuelle tient une place centrale dans ce modèle mental: ce sont d’ailleurs dans les livres d’images que les enfants découvrent aujourd’hui ce qu’est une vache, un cochon ou un dinosaure.

Georges Lakoff, élève dissident de Noam Chomsky et tenant de la sémantique cognitive, soutiendra que les mots prennent sens à partir des schémas mentaux sur lesquels ils sont greffés. Voilà d’ailleurs comment s’expliquent les métaphores. Si je dis d’un homme qu’il est un " gros matou ", personne ne va le prendre pour un chat, chacun comprend que je fais appel à des cara­ctéristiques sous-jacentes des gros chats domestiques: placides, indolents, doux. Ce sont ces traits sous-jacents qui forment la trame des mots et leur donnent sens.

Ronald W. Langacker  a appliqué les mêmes principes à la grammaire. Les structures de la grammaire ne reposent pas sur les lois internes au langage, mais dérivent de catégories mentales plus pro­fondes, notamment des représen­tations spatiales. Ainsi, dans beaucoup de langues, l’expression du temps (futur, passé) est décrite en termes d’espace: on dit " après"-demain ou "avant"-hier, comme on dit que le temps est " long " ou " court ".

Ces approches psychologiques du langage ont donc renversé le rapport entre langage et pensée.

Une des conséquences majeures est que le langage n’est pas le seul " propre de l’homme "; il n’est qu’un dérivé de la capacité à produire des représentations mentales, précisément des images mentales organisées en catégories. Au moment même où les linguistiques cogni­tives prenaient de l’importante, un autre courant de pensée, la prag­matique (à ne pas confondre avec le pragmatisme, un courant philosophique américain) allait proposer une autre version des relations entre langage et pensée.

Revenons à notre chat perdu. En utilisant le mot " chat ", nul ne sait exactement quelle image l’auteur de l’histoire a vraiment en tête: quelle est pour lui sa couleur, sa taille ou sa position exacte? Le mot a la capacité de déclencher des représentations, mais il ne peut les contenir intégralement. C’est sa force et ses limites.

Selon l’approche de la pragmat­ique, le langage n’est ni le créateur de la pensée (comme le pensait Saussure) ni son reflet (comme le soutiennent les linguistiques cognitives) : il est un médiateur qui déclenche des représentations. C’est un peu comme une étiquette sur une porte qui indique ce qui se trouve à l’intérieur (chambre 23, WC…) mais ne dit rien sur la couleur des murs, la forme du lit ou la position des toilettes.

Cela a d’importantes conséquences sur la façon d’envisager les relations entre langage et pensée. Le mot ne contient pas l’idée, il ne la reflète pas non plus, mais il l’induit. Quand on communique, on ne fait qu’induire une représentation. Le procédé est économique car il n’oblige pas à tout dire: le " toit " sur lequel est perché le chat renvoie ­implicitement au toit d’une maison et non à un toit de voiture, tout le monde le comprend sans qu’il soit besoin de le dire. Tous les mots comportent de l’implicite, qu’il s’agit de décoder.

En un sens, le langage, comme outil de communication, est réducteur par rapport à la pensée qu’il représente. Mais en même temps, les mots suggèrent toujours plus que la pensée qui les a fait naître, déclenchant chez ceux qui l’écoutent une infinité de représentations possibles. 

Auteur: Internet

Info: https://www.letemps.ch/ - Jean-François Fortier août 2013

[ signifiants symboles ] [ manifestations codées ] [ tiercités ] [ contextualisation générale ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel