Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 22
Temps de recherche: 0.0424s

citation s'appliquant à ce logiciel

Tout d'abord FLP, de par la puissance et la souplesse de son moteur de recherche et ses presqu'infinies possibilités d'investigations croisées, s'essaye à épuiser les possibilités d'expression de la langue au sens où l'outil permet de traquer les formulations les plus ramassées et les plus efficaces (classement par défaut en partant du plus petit outcome) à partir de mots combinés, quel que soit le domaine exploré. C'est donc un dispositif d'exploration sémantique, de recherche statistique aussi, sans but consumériste, appelé à développer et améliorer ses fonctionnalités au fur et a mesure du développement de sa base de données.

On peut aussi voir FLP comme un wikipédia littéraire francophone, extrêmement ouvert, étoffant sans cesse un corpus qui, appréhendé par un esprit curieux,  pourra se révéler comme une pâte linguistique susceptible, au fur et à mesure de sa progression, de "montrer des choses". Par exemple que le langage, mémoire externe des hommes (oui l'humain est augmenté), ne se fonde que sur des conventions/consensus éphémères et qu'un axe important de la recherche sémio/sémantique devrait être de traquer certaines illusions en ce sens (Peirce sera d'une grande aide ici).

Un autre domaine à étudier sera celui de la communication pure, au sens où le langage humain a créé ses propres oeillères, évidentes dès qu'on réalise que n'existent que bien peu de manières de conceptualiser "en parallèle", (c'est à dire avec possibilité de traduction de l'un vers l'autre) les constructions d'ordre sémiotique issues d'autres "univers communicants", les codages de la communication des abeilles par exemple. Même si ici la musique semble aller trop vite pour la partition. 

Il y a donc une volonté de s'appuyer et de trifouiller un idiome en principe correctement orthographié, vu lui-même comme le codage de nos réalités solipsistes mélangées. Il s'agit d'une codification spirituelle (au sens de Peirce), qui ne veut être limitée que par l'imaginaire des participants et les limites de leurs conceptualisations communicables. En bref le langage veut aussi ici, si possible, s'analyser lui-même.

En mettant l'accent, autant que faire se peut, sur la clarté et donc la transmissibilité des notions dans un but d'exploration et d'élargissement collectif. Avec quelques mots valeurs clés à la base : ouverture, humour, tolérance, bon sens...

Auteur: Mg

Info: 6 oct 2020

[ quête ]

 
Commentaires: 3
Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

L'esprit est enfermé dans la matière (où, comment ? à un niveau vibratoire donné ? Que veut dire le terme vibratoire, par rapport aux atomes par exemple, qu'en est-il des autres niveaux ? mais stop). 

Lorsque la conscience d'un individu se forme (secondéité construite via des mots "quasi-esprits" ?) elle le fait par la succession et le mélange continus d'imprégnations/itérations, cadencées par les  aléas de son existence, expériences concrètes qui semblent présider à des choix que l'esprit imprime/mémorise au-delà de la volonté de la personne. 

Ce qui en résulte (singularité individuelle, parlêtre ?) ne cesse de se coltiner la réalité, mais avec des facultés d'imprégnations qui, avec l'âge, semblent aller en se réduisant. Cet être pensant se voit  lui-même comme une continuité, ego singulier persistant, point unique qui s'affine.  

A l'image des phrases qui précédent la pensée humaine est plutôt linéaire, puisque directement liée avec des formes d'écritures-lectures qui ne sont que l'acceptation de mots/phrases/idées alignés. Lire consistant à se laisser conduire (et y croire ?) le long de mots/paragraphes/textes plus ou moins longs. Alignements qui résonnent en nous. Pensées rectilignes, quasi télépathiques, puisque non polluées par les apparences/mimiques des intervenants. Processus où le lecteur représente une forme de "cassure de linéarité", dans la mesure où il se retrouve confronté à des formulations/mondes qui le heurtent plus ou moins. 

Tel est peut-être le fragile des pensées induites par la lecture. Habitudes d'horizontalité dans la présentation des choses, des actions et de leurs continuités. 

Tout est beaucoup plus enchevêtré que cela. La pensée, si on veut bien s'essayer à voir notre Terre "Gaïa" comme un cerveau matrice qui coordonne l'extraordinaire émergence vitale à sa surface, ressemble à autre chose. Nous sommes partie d'un tout, pas une race/espèce "au-dessus" du reste, destinée à conquérir l'univers pour lui expliquer le sens des choses.

Il est donc probable que cette réflexion-mémoire externalisée des humains, (même si, avec le temps et de continues investigations, elle s'est délinéarisée sous forme de complexes corpus universitaires) est entravée par sa trop grande linéarité. 

Au-delà d'un enfermement anthropocentrique qui ressemble beaucoup à une impasse et qu'il faut maintenant tenter de réduire, FLP - via ses fonctionnalités diverses - propose des voies pour accompagner les "modification d'habitudes de linéarité" amenées par Internet et le numérique. 

Par exemple avec le "nuage de corrélats" - fonction qui ira en s'améliorant - FLP ouvre en direction d'une certaine verticalité syntaxique, non-séquentielle. Un peu comme  l'"heptapod B" de Ted Chiang.

Auteur: Mg

Info: 2 février 2022

[ questions ]

 

Commentaires: 0

Ajouté à la BD par miguel

archétypes

- (Q) Parle-moi de la similitude entre l'organisation de certains tissus organiques et certaines colonies d'insectes

- (R) Certainement ! Il existe des parallèles intéressants entre l'organisation de certains tissus organiques et la structure sociale des colonies d'insectes. Ces similitudes peuvent être observées en termes de division du travail, d'organisation hiérarchique et de comportement coopératif.

1 Division du travail : Dans les tissus organiques comme dans les colonies d'insectes, il y a souvent une division du travail entre des cellules spécialisées ou des individus pour effectuer des tâches spécifiques. Dans les tissus organiques, différents types de cellules collaborent pour exécuter des fonctions spécifiques. Par exemple, dans le corps humain, divers types de cellules telles que les cellules musculaires, les cellules nerveuses et les cellules épithéliales ont des rôles distincts. De même, dans les colonies d'insectes comme les abeilles domestiques, les abeilles individuelles ont des rôles spécifiques tels que les ouvrières, les faux-bourdons ou les reines, chacun contribuant au fonctionnement global de la colonie.

2 Organisation hiérarchique : Les tissus organiques et les colonies d'insectes présentent tous deux une organisation hiérarchique. Dans les tissus, les cellules s'organisent en tissus, les tissus en organes et les organes en systèmes d'organes. Cette structure hiérarchique assure un fonctionnement coordonné et une communication efficace au sein de l'organisme. De même, les colonies d'insectes ont une structure hiérarchique avec différentes castes ou rangs. Il peut y avoir une reine ou des individus reproducteurs au sommet, suivis par différents niveaux d'ouvriers, chacun ayant des tâches et des responsabilités spécifiques.

3 Comportement coopératif : Le bon fonctionnement des tissus organiques et des colonies d'insectes repose sur un comportement coopératif. Dans les tissus, les cellules communiquent et travaillent ensemble par le biais de signaux chimiques, de l'adhésion cellule-cellule et d'actions coordonnées. Elles partagent les ressources et se soutiennent mutuellement dans leurs fonctions. Dans les colonies d'insectes, les individus collaborent et travaillent pour le bénéfice collectif de la colonie. Les abeilles, par exemple, coopèrent dans des tâches telles que la recherche de nourriture, le soin du couvain et la défense. La coopération améliore l'efficacité globale et la survie du tissu ou de la colonie.

Il est important de noter que s'il existe des similitudes en termes d'organisation et de coopération, il existe également des différences significatives entre les tissus organiques et les colonies d'insectes. Les tissus organiques font partie d'organismes multicellulaires complexes, tandis que les colonies d'insectes représentent des structures sociales formées par des insectes individuels. Les mécanismes sous-jacents et la régulation génétique de ces systèmes diffèrent également. Cependant, l'étude de l'organisation et du comportement de ces deux systèmes peut fournir des informations précieuses sur les systèmes collectifs, la communication et l'émergence de fonctionnalités complexes.

Auteur: chatGPT4

Info:

[ analogies ] [ élaborées ] [ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

biologie

La tendance est à l'expression d'une vérité inéluctable. L'avenir de la société sera mis au défi par les virus zoonotiques, une prédiction tout à fait naturelle, notamment parce que l'humanité est un puissant agent de changement, qui est le carburant essentiel de l'évolution. Malgré ces affirmations, j'ai débuté avec l'intention de laisser au lecteur une appréciation plus large des virus : ils ne sont pas simplement des agents pathogènes de la vie. Ce sont des partenaires obligés de la vie et une force formidable de la nature sur notre planète. En contemplant l'océan sous un soleil couchant, pensez à la multitude de particules virales dans chaque millilitre d'eau de mer : en survolant la forêt sauvage, considérez les viromes collectifs de ses habitants vivants. Le nombre impressionnant et la diversité des virus dans notre environnement devrait engendrer en nous une plus grande admiration quant au fait d'être en sécurité parmi ces multitudes que la crainte qu'ils nous fassent du mal.

La médecine personnalisée deviendra bientôt une réalité et la pratique médicale cataloguera et pèsera systématiquement la séquence du génome d'un patient. Peu de temps après, on pourra s'attendre à ce que ces données soient rejointes par les métagénomes viraux et bactériens du patient : l'identité génétique collective du patient sera enregistrée sur une seule impression. Nous découvrirons sans doute que certains de nos passagers viraux sont nocifs pour notre santé, tandis que d'autres sont protecteurs. Mais cette approche des virus que j'espère vous avoir fait apprécier en lisant ces pages n'est pas un exercice de comptabilité. La mise en balance des avantages et des menaces pour l'humanité est une tâche stérile. Le métagénome viral contiendra des fonctionnalités génétiques nouvelles et utiles pour la biomédecine : les virus peuvent devenir des outils biomédicaux essentiels et les phages continueront à s'optimiser peuvent également accélérer le développement de la résistance aux antibiotiques dans l'ère post-antibiotique et les virus émergents peuvent menacer notre complaisance et remettre en question notre société économiquement et socialement. Cependant, la simple comparaison de ces avantages et inconvénients ne rend pas justice aux virus et ne reconnaît pas leur juste place dans la nature.

La vie et les virus sont inséparables. Les virus sont le complément de la vie, parfois dangereux mais toujours beaux dans leur conception. Tous les systèmes de réplication autonomes et autonomes qui génèrent leur propre énergie favoriseront les parasites. Les virus sont les sous-produits incontournables du succès de la vie sur la planète. Nous leur devons notre propre évolution ; les fossiles de beaucoup sont reconnaissables dans les VRE* et les EVE** qui ont certainement été de puissantes influences dans l'évolution de nos ancêtres. Comme les virus et les procaryotes, nous sommes également un patchwork de gènes, acquis par héritage et transfert horizontal de gènes au cours de notre évolution depuis le monde primitif basé sur l'ARN.

On dit souvent que "la beauté est dans l'œil de celui qui regarde". Il s'agit d'une réaction naturelle à un événement visuel : un coucher de soleil, le drapé d'une robe de créateur ou le motif d'une cravate en soie, mais on peut également la trouver dans un vers de poésie, un ustensile de cuisine particulièrement efficace ou même l'efficacité impitoyable d'une arme à feu. Ces derniers sont des reconnaissances uniquement humaines de la beauté du design. Cette même humanité qui nous permet de reconnaître la beauté de la conception évolutive des virus. Ce sont des produits uniques de l'évolution, la conséquence inévitable de la vie, une information génétique égoïste et infectieuse qui puise dans la vie et les lois de la nature pour alimenter l'invention évolutive.

Auteur: Cordingley Michael G.

Info: Viruses: Agents of Evolutionary Invention. *entérocoques, qui sont un des micro-organismes à haut risque de transmissibilité et de développement croisé de résistance aux antibiotiques. Cette résistance aux glycopeptides a également un impact non négligeable, avec le risque redouté de transfert de cette résistance à Staphylococcus aureus, beaucoup plus répandu et pathogène. **ADN fossile ou pseudogènes

[ combat continuel ] [ prospective ] [ bacilles ] [ catalyseurs ]

 

Commentaires: 0

Ajouté à la BD par miguel

citation s'appliquant à ce logiciel

Pour entamer cette chaîne (approche d'une systématique des pensées) nous voulons partir de la création du signe (voir la chaîne évolution de la lecture) parce que nous sommes acquis à l'idée de C.S. Peirce comme quoi il n'est pas de pensée sans signe.

Ensuite se pose la question de la clarté ; l'idée étant qu'il faudrait, dans l'absolu, qu'on puisse expliquer notre cheminement à un Bonobo (voire à un aveugle sourd muet) pour, petit à petit et avec beaucoup de temps, la développer plus avant. Parce qu'à y regarder de près, ça ne s'est pas passé différemment pour l'homme. Moi ou toi lecteur, sommes "assis" sur quelques dizaines de milliers d'années de développement et d'accumulation d'un processus comme celui-ci.

On imagine d'abord la domestication du feu qu'on suppose couplée d'une manière ou d'une autre au développement d'un langage, c'est à dire de "conventions" quand à la signification de gestes ou de sons proférés par le groupe - ce qu'il se passe chez l'animal depuis lurette. Et il y a ce saut incroyable - tout aussi extraordinaire que la maîtrise du feu - avec l'apparition des conventions écrites (ici on imagine un bipède en train de tracer un trait sur la roche avec le charbon de l'extrémité d'une branche à demi consumée - ce qui ramène aussi aux pigments de l'encre noire d'imprimerie, encore de nos jours à base de suie. Le feu est toujours là). Conventions écrites "externes" qui correspondent à l'apparition d'une conscience humaine tribale et donc en même temps à une forme d'isolement solipsiste de son espèce, début d'une manière de "séparation formelle" d'avec les autres mammifères. Passons. Où que ce soit ces conventions, traces/signes/mots, seront d'abord beaucoup utilisées sous forme de listes/inventaires, bien plus que comme supports d'histoires, ces dernières restant principalement orales. Allons vite ici et constatons les quelques milliers d'années de développement des langages "écrits" et l'apparition subséquente de recueils (alphabets, lexiques, dictionnaires "interlangues", etc) apportent et rassemblent tout un arsenal idiomatique qui précède/accompagne l'émergences des concepts, mots-concepts, idées, notions... "Representamen" étant la terminologie usée par C.S. Peirce pour cerner une "entité sémiotique" qui est en réalité un carrefour sémantique. Au-delà de l'alphabet font surface ces "machins bizarres", accommodables quasiment à toutes les sauces, les mots. Voyez plutôt. Nous sommes ici dans l'idée du "mot univers", ou, vu de l'autre bout de la lorgnette, du "terme monade". Le signe originel est devenu immense.

Continuons à grande vitesse. La civilisation des mots et des nombres a aussi fait émerger la logique formelle et ses développements mathématiques et puis, grâce à la musique et au puissant instinct de Jean-Sébastien Bach, une logique plus profonde, quasiment mécanique, utilisée dans le développement contrapuntique de ses fugues - elles-mêmes pensées de manière symétriques - ou graphiques - par le maître, si j'ai bien saisi ce qu'on en dit. Une symétrie très bien exposée par Anton Webern (qui, à la suite du traité de l'harmonie de Schoenberg, enfonçait ainsi un clou définitif dans l'extension théorique du système tonal), avec ses 4 parties renversables : l'original (vérité), le renversement de l'original (mensonge), le miroir de l'original (vérité pessimiste) et le renversement du miroir de l'original (mensonge optimiste). Les mots entre parenthèses sont ici de notre crû, afin transférer l'idée dans le langage. 1) motif original 2) miroir de l'original (rétrograde) 3) inversion de l'original (intervalles) 4) miroir du renversement de l'original. Lien vers les 4 exemples graphiques sur portée musicale. Tout ceci a base de concordances, c'est à dire d'imitations et de répétitions de motifs, car le désordre n'est pas le fondement du fonctionnement d'un système tonal - 12 demi-tons tempérés avec une gamme centrale à 7 notes - déjà fortement établi depuis les grecs.

On notera au passage que toute notion d'ordre ne s'impose que subjectivement par rapport à un chaos (désordre). Suivant où l'on se situe le désordre va être libérateur ou... dérangeant. L'ordre réconfortant... ou assommant.  Ici on a envie de penser aux fonctionnalités de la tétravalence du carbone, sur base de quatre valeurs de vérités, qui engendre, une fois appliqué au mathématiques, une logique formelle beaucoup plus puissante que celle du tiers exclus. (Qui représente les bases du calcul quantique) 4 valeurs auxquelles nous appliquerons la triade de C.S. Peirce ; objet (representamen - mot - concept) - interprétant (récepteur - raisonneur - arbitre des élégances) - signe (média utilisé - écrit - visuel - sonore - mélange).

Nous voilà avec une base à sept pôles, (l'homme en son centre, tout comme au centre du représentamen), déclinable ad infinitum, et que nous allons nous amuser à mettre en concordance avec le développement - très primitif à ce jour - de nos représentations et d'une pensée articulée. Mais avant cela nous allons nous intéresser à l'homme et à son fonctionnement de récepteur-émetteur. Comment fonctionne la bio-machine qui se situe au centre de ce jeu ? Comment définir les paramètres qui nous concernent en ce domaine, nous autres lecteurs, surfeurs, écrivains... pauvres mammifères évolués et instables. Donc, dans une certaine mesure, libres. C.S. Peirce, et d'autres, nous indiquent quelques pistes.

Auteur: Mg

Info: 12 nov. 2019

[ mathématiques mystiques ] [ septénaire ] [ sociolinguistique ] [ pré-mémétique ] [ théandrie ]

 
Mis dans la chaine
Commentaires: 2
Ajouté à la BD par miguel

extraterrestres

Q - Revenons sur les recherches faisant intervenir le dédoublement. Comment travaillez-vous et à partir de quelles hypothèses ?
R - Nous travaillons avec des sensitifs accoutumés à cette pratique. Il arrive fréquemment que plusieurs d'entre eux se projettent simultanément sur un même lieu ou vers une même époque pour nous permettre de vérifier les informations par recoupement. Un sensitif comme Raymond Réant, qui est un des membres actifs de la Fondation Ark'All, emploie le dédoublement physique, c'est-à-dire s'extériorise sous la forme d'une substance qui reste toutefois reliée au corps par une sorte de filament dont la rupture entraînerait la mort immédiate. C'est ce que les occultistes appellent le corps astral et le " cordon d'argent ". Le dédoublement mental, qu'emploient par exemple David et Samuel Franeric, est moins dangereux puisqu'il repose sur la clairvoyance.
Mais qu'est-ce que le dédoublement lui-même ? Nous retrouvons la notion d'Objet Fractal. L'être humain appartient à deux univers : celui où les formes apparaissent et celui où elles s'engendrent. Ces deux univers sont en dualité dynamique, à la manière du Yin/Yang de la pensée chinoise. Mais notre pensée scientifique brise cette dualité dynamique en ne considérant que les formes apparentes au détriment des Formes constituantes. Le dédoublement rétablit la relation entre les deux univers. Le sensitif passe de l'un à l'autre et les structures qui s'échangent ainsi entre l'univers apparent et celui des Formes constituent un Objet Fractal, dont nous avons vu les propriétés en matière de délocalisation et de dé temporalisation. Nous pouvons donner à l'Objet Fractal ainsi créé des propriétés plus précises grâce aux arithmétiques dont j'ai parlé : il suffit de transposer les propriétés de Champ ou d'État du système que nous voulons étudier pour construire le modèle de notre Objet Fractal. Le sensitif qui se projette au moyen de cet Objet Fractal atteindra ainsi les domaines, lieux ou époques, planètes ou galaxies, qui nous intéressent.
(...)
Q - Vous tenez là une méthode qui pourrait résoudre bien des polémiques entre historiens ou archéologues. Ainsi d'ailleurs qu'entre partisans et détracteurs du phénomène par exemple...
R - On peut comprendre ce que sont les OVNIS à partir des notions que je viens de développer. Nous avons vu que dans certaines conditions, le passage par un Objet Fractal notamment, l'être humain peut se projeter du Local dans le Global ou faire éclater le Global pour en faire surgir certaines réalités, personnalisées ou non.
Allons un peu plus loin. A toute réalité de notre monde local, correspond dans le Global un modèle qui est à la fois ensemble et élément : c'est ce que nous appelons un Enel. Les choses localisées sont des répliques de l'Enel qui existe pour elles dans le Global.
Q - Les Enel seraient des sortes d'archétypes ou d'hyper-objets dont le Local ne détiendrait que des copies plus ou moins fidèles ?
R - Et parfois même de véritables caricatures ! C'est exactement ce que sont les OVNIS, comme nous l'ont montré nos recherches aussi bien sur des photos que sur des lieux ou des personnes " contactées ". Le phénomène OVNIS s'accompagne d'ailleurs d'États du type " K Sh Ph " extrêmement dangereux et les brûlures, troubles psychiques et autres symptômes chez ceux qui ont approché un OVNIS procèdent d'Émissions dues aux Formes et de Champs de Taofel que nous connaissons bien. Vous remarquerez d'ailleurs le nombre de témoignages faisant état de délocalisations. Les sujets disent avoir été entraînés à l'intérieur de l'OVNIS et transportés " sur une autre planète ", etc. En fait ils ont tout simplement été pris dans la structure d'Objet Fractal de l'OVNIS
Q - Mais qui manipule l'Objet Fractal et de quoi les OVNIS sont-ils la caricature ?
R - Le manipulateur inconscient n'est autre que la collectivité humaine et les OVNIS sont les répliques déformées des Objets techniques de notre civilisation.
Chaque époque connaît des OVNIS différents qui " Imitent " la civilisation elle-même. (Gravure de Gavarni pour les " Voyages de Gulliver ", de Swift). Les Objets techniques sont, par définition, des Formes non-naturelles, voire parfois anti-naturelles. L'accumulation de ces objets crée dans notre espace des cumulo-décalaires par lesquels certaines de nos réalisations technologiques se délocalisent et sont projetées dans le Global. Par ébranlement de l'Enel correspondant à l'Objet Technique délocalisé, le Global renvoie dans notre espace, cette fois en passant par des anti-décalaires, des " singeries " de notre technologie actuelle : ces OVNIS dont les caractéristiques et les performances sont celles de nos propres engins mais amplifiées et même outrées. De même que les Grands Initiés obtenaient du Global des entités surhumaines, divines ou infernales selon l'esprit de celui qui activait les Champs de Taofel et passait dans l'Objet Fractal, de même la saturation technologique de notre époque fait surgir du Global ces phénomènes dangereux et ironiques que sont les OVNIS
Q - Chaque époque connaît d'ailleurs des OVNIS différents, qui " imitent " les Objets Techniques du moment, mais en transforment les fonctionnalités. Si les OVNIS reflètent la finalité de notre technologie, les caractéristiques d'Émissions et d'État que vous leur prêtez ne sont guère rassurants...
R - Nous connaissons suffisamment cet État " K Sh Ph " avec Shin renversé, qui est celui des OVNIS, pour que le doute ne soit plus permis.
Mais je dois préciser que ce n'est pas l'Objet Technique en lui-même qui est à remettre en question. Ce sont les fonctionnalités antinaturelles que nous assignons à ces objets, leur surnombre aussi, qui rendent impossible leur intégration aux cycles et aux systèmes de la Nature. Les fonctionnalités qui ne peuvent être intégrées et harmonisées dans le monde naturel sont projetées dans le Global qui nous renvoie...

Auteur: Ravatin Jacques

Info: entretien en 1978, revue3emillenaire.com/blog/les-emissions-dues-aux-formes

[ ésotérisme ] [ sciences ] [ spéculation ] [ parapsychologie ]

 

Commentaires: 0

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel