Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 36
Temps de recherche: 0.0424s

végétaux

Les scientifiques démontrent que les arbres ont une sorte de "battement de coeur"

Il y a un très grand nombre d'êtres vivants sur Terre, tous avec leur propre ensemble de caractéristiques et leur mode de vie unique. Des plus petites fourmis jusqu'aux énormes girafes et éléphants, tous ont en commun d'être vivants ! Les plantes et les arbres en font partie. S'ils ne se promènent pas comme les autres organismes, ou n'ont ni rein ni foie, ils ont en quelque sorte leur propre ensemble d'organes.

Secret battement de coeur
Bien qu'un arbre n'ait pas de cœur, l'idée qu'il ait son propre rythme et son propre sens du rythme n'est plus aussi farfelue qu'on pouvait le penser. Selon une étude menée par András Zlinszky, Bence Molnár et Anders S. Barfod de Hongrie et du Danemark, les arbres ont en fait un type de rythme particulier qui ressemble à celui d'un battement de cœur.

Pour mettre au jour ce battement de coeur caché, les chercheurs ont utilisé des techniques de surveillance avancées, connues sous le nom de balayage atmosphérique au laser, et on étudié le mouvement de vingt-deux types d'arbres différents. Les résultats ont surpris tout le monde, révélant que la nuit, alors que les arbres dorment, ils présentent souvent un battement qui résonne dans tout leur corps, comme les humains et d'autres créatures vivantes.

Qu'est-ce que ?
Bien que ces pulsations ne soient pas de véritables battements de cœur, ils semble qu'elles remplissent une fonction similaire, maintenant le rythme et en pompant des liquides dans l'organisme. Les impulsions que les scientifiques ont découvertes sont en fait l'arbre qui propulse et distribue l'eau dans son corps, tout comme un cœur pompe le sang. On a longtemps supposé que les arbres distribuaient l'eau par osmose, mais cette nouvelle découverte semble indiquer autre chose. Voilà qui pourrait changer à jamais la façon dont les humains voient et comprennent les arbres. Ces "battements de coeur" eux-mêmes sont assez lents et réguliers, certains se produisant toutes les quelques heures. Malgré cela, c'est une découverte étonnante qui prouve que la nature est encore plus complexe que ce que l'on avait imaginé.

Cette étude n'a pas seulement constaté cette forme de rythme cardiaque, elle a également révélé que les arbres bougent beaucoup pendant la nuit, bien plus que ce que les gens pensaient. Il s'est aussi avéré qu'un grand nombre d'espèces ont fait descendre leur feuillage jusqu'à une dizaine de centimètres après le coucher du soleil. Lorsque les arbres font cela, c'est en fait parce qu'ils dorment (un autre trait humain/animal), ils entrent alors dans leur propre type de rythme circadien, connu sous le nom de "mouvements circadiens des feuilles", qui est incroyablement intéressant à observer.

Les arbres et les plantes font partie des organismes vivants les plus mystérieux, ils recèlent encore beaucoup d'informations et de secrets à comprendre. Certains disent même que les arbres ont la capacité de pleurer et de ressentir la douleur, ce qui dans ce cas changerait aussi bien des choses. Nous avons encore beaucoup à apprendre et espérons que d'autres études nous apporteront d'autres informations sur le monde mystérieux et fascinant des plantes et des arbres.

Auteur: Internet

Info: www.frontiersin.org, février 2020

[ sommeil ]

 

Commentaires: 0

Ajouté à la BD par miguel

sauvegarde

Stocker 360 TO pendant 13,8 milliards d'années ? C'est possible
Des chercheurs de l'Université de Southampton ont mis au point un procédé pour enregistrer jusqu'à 360 To de données sur un disque en verre de la taille d'une pièce de monnaie. Les données stockées sur ce support pourraient être accessibles pendant 13,8 milliards d'années.
La préservation et la transmission des connaissances est une problématique qui a préoccupé l'humain depuis la nuit des temps. La création humaine est fragile, elle s'altère avec le temps et sa survie est soumise aux aléas des guerres et des catastrophes naturelles.
Récemment, le conflit en Syrie a conduit à la destruction d'une partie incroyable du patrimoine mondial, mais l'humanité a connu des pertes massives à toutes les époques. Lors du séisme de 1755 à Lisbonne, plus de 70 000 volumes de la bibliothèque royale furent perdus à jamais, ainsi que des centaines de peintures majeures. Aujourd'hui, la conservation des oeuvres d'art demande de nombreux efforts aux institutions, mais c'est une course perdue d'avance dans la mesure ou le temps aura forcément raison des supports physiques.
La numérisation des oeuvres est une solution pour faire face à l'altération ; cependant, les supports numériques ne sont pas épargnés par les affres du temps. Ils sont sujets aux griffes et, exposées à l'humidité et à la chaleur, les données finissent par être corrompues. Mais des chercheurs de l'Université de Southampton, en collaboration avec l'université technique d'Eindhoven ont mis au point un procédé de stockage qui aurait une durée de vie virtuellement illimitée.
En encodant l'information au sein de nanostructures contenues dans du verre, les chercheurs ont réussi à stocker 360 To sur un disque pas plus gros qu'une pièce de monnaie. À titre de comparaison, c'est 3 000 fois plus qu'un Blu-ray qui peut stocker jusqu'à 128 Go de données - de quoi ravir tous les adeptes de téléchargement légal.
Mais en plus de proposer un stockage colossal, le support de stockage conçu par les chercheurs devrait toujours être accessible dans 13,8 milliards d'années ; à condition d'être conservé à une température inférieure à 190 degrés. On ne sera cependant pas là pour vérifier si leurs estimations étaient correctes.
Un cristal de mémoire
"C'est très excitant de savoir que nous avons créé une technologie capable de préserver les documents et les informations afin de pouvoir les transmettre aux générations futures" s'enthousiasme le professeur Peter Kazanky dans un communiqué de l'université, avant de rajouter que "cette technologie a le potentiel de sécuriser les dernières traces de notre civilisation : tout ce que nous avons appris ne sera pas perdu".
Pour réaliser cette prouesse, les chercheurs ont utilisé un laser femtoseconde afin d'enregistrer et de récupérer des informations stockées sur le support en cinq dimensions. Les variations dans l'orientation, la taille et la position du laser sur les axes x, y et z, changent la manière dont se réfléchit la lumière sur le support. Ces modifications peuvent être interprétées pour obtenir des informations.
Comparé au cristal mémoire utilisé dans Superman, cette nouvelle technologie a déjà été utilisée pour créer des copies éternelles de la Bible du roi Jacques, le traité Opticks d'Isaac Newton et La Déclaration Universelle des Droits de l'Homme.

Auteur: Piraina Alexis

Info: 18 février 2016, Sciences

[ préservation ] [ postérité ]

 

Commentaires: 0

physique photonique

Quantifier la quantification : un projet mathématique "d'une immense beauté".

Les chercheurs mettent au point une méthode pour déterminer le degré de quantification de l'état d'un système.

Tout grand objet : balle de base-ball, véhicule, planètes, etc, se comporte conformément aux lois classiques de la mécanique formulées par Sir Isaac Newton. Les petits, comme les atomes et les particules subatomiques, sont régis par la mécanique quantique, où un objet peut se comporter à la fois comme une onde et comme une particule.

La frontière entre le domaine classique et le domaine quantique a toujours été d'un grand intérêt. Les recherches rapportées dans AVS Quantum Science par AIP Publishing, examinent la question quant à savoir ce qui fait qu'une chose est "plus quantique" qu'une autre. Existe-t-il un moyen de caractériser la "quanticité" ? Les auteurs indiquent qu'ils ont trouvé une approche pour le faire.

Le degré de quanticité est important pour des applications telles que l'informatique et la détection quantiques, qui offrent des avantages que l'on ne trouve pas dans leurs équivalents classiques. Pour comprendre ces avantages, il faut à son tour comprendre le degré de quanticité des systèmes physiques concernés.

Plutôt que proposer une échelle dont les valeurs seraient associées au degré de quanticité, les auteurs de cette étude examinent les extrêmes, à savoir quels sont les états les plus, ou les moins... quantiques. Selon l'auteur Luis Sanchez-Soto, l'idée de cette étude est venue d'une question posée lors d'une réunion scientifique.

"Je donnais un séminaire sur ce sujet lorsque quelqu'un m'a posé la question suivante : 'Vous, les gars de l'optique quantique, vous parlez toujours des états les plus classiques, mais qu'en est-il des états les plus quantiques?'", 

On a compris depuis longtemps que les états dits cohérents peuvent être décrits comme quasi-classiques. Ils se produisent, par exemple, dans un laser, où la lumière provenant de plusieurs sources de photons est en phase, par conséquence dans un état très peu quantique.

Un tel système quantique peut être représenté mathématiquement par des points, plus ou moins nombreux, que l'on répartit sur une sphère, souvent en les intriquant sur spectre de couleurs pour avoir une meilleure représentation de ce qu'on appelle en général "constellation de Majorana". Pour les états cohérents, la constellation est simplement un point unique. Par conséquent ceux qui sont les plus quantiques présentent des configurations plus riches/nombreuses qui recouvrent plus richement la sphère. Les sphères pouvant être modélisées de plusieurs manières : par un simple cercle où sont disposés les "points quantiques", via les répartitions de couleurs, voire en usant de ces point de polarités pour transformer chaque sphère en un polyèdre plus ou moins complexe. 

Les chercheurs, après avoir examiné plusieurs autres approches de scientifiques ayant exploré les quanta, et en prenant en compte la constellation de Majorana pour chacune d'entre elles, s'étaient sont alors demandés comment répartir au mieux, ou le plus uniformément, l'ensemble des points sur une sphère dans le cadre de cette approche. 

C'est ainsi que Sanchez-Soto et ses collègues, en abordant la quanticité sous cet aspect, ont réalisé qu'il s'agissait d'un projet mathématique non seulement utile, mais "d'une immense beauté".

Auteur: Internet

Info: https://www.newswise.com. 12 nov 2020

[ électrons ]

 

Commentaires: 0

Ajouté à la BD par miguel

compétition

Face à l’appât du gain, deux intelligences artificielles de Google se révèlent "très agressives"
Le meilleur moyen de savoir si le développement des intelligences artificielles progresse est de les mettre en pratique. Pour cela, la filiale de Google Deepmind a récemment intégré des IA dans des jeux virtuels afin de savoir quel serait leur comportement face à une situation donnée. Entre collaboration et affrontement, cette étude passionnante nous montre de manière primitive que les intelligences artificielles ne reculent devant rien pour arriver à leurs fins.
Après avoir démontré leurs capacités en s’illustrant au jeu de Go, battant récemment les meilleurs joueurs du monde, les IA de Google se sont retrouvées entre elles dans des jeux vidéo, dans le cadre d’une étude baptisée "Multi-agent renforcement learning in séquentiel social dilemnas". D’après les équipes de Deepmind, l’objectif de cette étude est de savoir si, face à l’appât du gain, les intelligences artificielles privilégieraient la collaboration ou l’affrontement. Si les jeux vidéo ressemblent à des versions grossières de Pacman, les résultats nous permettent de tirer quelques conclusions.
Dans le premier jeu baptisé "Gathering", les joueurs doivent récolter le plus de pommes possibles depuis un point central. Chaque joueur dispose d’un pistolet laser afin de pouvoir éliminer temporairement son adversaire le temps de pouvoir récupérer un maximum de pommes. Les IA Deepmind sont en rouge et bleu, les faisceaux laser en jaune et les pommes en vert. Au début de la partie, quand il y a suffisamment de pommes pour les deux joueurs, elles se livrent une bataille pacifique. Toutefois, les IA n’hésitent pas à se servir de leur pistolet laser pour neutraliser leur adversaire quand les pommes se font rares.
En utilisant des formes de Deepmind de plus en plus complexes, les chercheurs ont suggéré que plus l’agent est intelligent et plus il est capable d’apprendre de son environnement, ce qui lui permet d’utiliser des tactiques très agressives pour prendre le dessus. "Ce modèle… montre que certains aspects du comportement humain semblent émerger comme un produit de l’environnement et de l’apprentissage. Des politiques moins agressives émergent de l’apprentissage dans des environnements relativement abondants, avec moins de possibilités d’actions coûteuses. La motivation de la cupidité reflète la tentation de surpasser un rival et de recueillir toutes les pommes soi-même", explique Joel Z Leibo, membre de l’équipe de recherche.
Dans le deuxième jeu baptisé "Wolfpack", trois IA sont présentes : deux loups doivent chasser une proie et la capturer dans un environnement plein d’obstacles, à la manière d’une meute. Contrairement au jeu précédent, Wolfpack encourage la coopération. Si les deux loups sont près de la proie lorsque celle-ci est capturée, alors les deux reçoivent une récompense, indépendamment de celui qui l’a capturée.
"L’idée est que la proie est dangereuse – un loup solitaire peut la surmonter, mais il risque de perdre la carcasse à cause des charognards. Cependant, lorsque les deux loups capturent la proie ensemble, ils peuvent mieux protéger la carcasse contre les charognards, et donc recevoir une récompense plus élevée", explique l’équipe dans leur rapport.
En fonction de leur environnement, les IA ont soit privilégié l’agressivité et l’égoïsme, soit la collaboration pour un plus grand succès personnel. Si Google n’a pas encore publié son étude, les premiers résultats révèlent qu’élaborer des intelligences artificielles ne signifie pas qu’elles estimeraient nos propres intérêts comme priorité absolue.

Auteur: Internet

Info: Dailygeekshow.com nov 2017

[ logiciel expert ]

 
Mis dans la chaine

Commentaires: 0

placebo

Verrues : un sparadrap sinon rien !
Les verrues virales finissent toujours par disparaître et les traitements agressifs font souvent plus de mal que de bien.
Une récente étude américaine relatée dans le Journal international de médecine (JIM) montre que la pose de sparadraps sur les verrues ferait aussi bien que les traitements actuellement proposés, sans effet secondaire. Ses auteurs concluent qu'une "occlusion laissée en place pendant 7 jours" et renouvelée au bout de quelques semaines constitue "une solution anodine qui mérite d'être essayée avant d'avoir recours à des traitements inconfortables et douloureux. Ou après l'échec de ces derniers". Un message qui ravit le Pr Claudine Blanchet-Bardon, la vice-présidente du syndicat national des dermato-vénérologues.
Les verrues virales sont dues à des papillomavirus (HPV). Certaines sont en relief et elles siègent surtout sur le dos des mains et les genoux. Elles peuvent également se développer autour des ongles, le plus souvent chez les enfants qui s'arrachent les peaux. En général, elles ne sont pas douloureuses à la différence des verrues enchâssées dans la peau épaisse de la plante des pieds et qui font très mal à la pression. "Les HPV sont présents partout, aussi bien sur les parquets des domiciles qu'au bord des piscines ou encore sur les tatamis de judo", rappelle le Pr Blanchet-Bardon. Personne n'échappe donc à leur rencontre. Mais c'est vers l'âge de 8 à 10 ans que le risque de souffrir de ce problème est le plus important. Il diminue ensuite avec l'âge, ce qui indiquerait la formation d'une immunisation progressive.
Ne rien faire
Côté traitement, la dermatologue est formelle : en l'absence de douleur, il ne faut rien faire. "Chez les gens dont le système immunitaire fonctionne normalement, les verrues ont une durée de vie de 3 mois à 3 ans et elles finissent toujours par disparaître", rappelle-t-elle. "C'est ce qui explique les succès des rebouteux. Moi, je propose à mes jeunes patients de dessiner tous les soirs leurs verrues et de leur donner l'ordre de partir (avec parfois un traitement local léger en plus). Et ça marche ! Mais je pourrais aussi bien leur conseiller d'enterrer un oignon sous un chêne par une nuit sans lune"...
Le traitement des verrues banales répond, pour cette spécialiste, à une forte pression sociale. Les gens n'admettent pas que l'on ne fasse rien. Pour elle, seuls les produits kératolytiques, qui dissolvent la kératine, la partie cornée de la peau, ont un intérêt. Quant à la présence de sparadraps, elle entraîne des modifications de la couche cornée de la peau et les virus HPV n'apprécient ni l'augmentation de la température locale, ni la macération. Pour les verrues plantaires, qui sont douloureuses, il faut gratter le cal qui se forme localement et essayer d'extraire la verrue avec ces fameux kératolytiques.
Torture
Concernant les autres traitements, Claudine Blanchet-Bardon est très sévère : "La cryothérapie est une torture pour les enfants. Le produit à - 172 °C fait très mal, en particulier sur le bout des doigts, et il n'est pas rare de voir un rebond : la verrue traitée disparaît et autour se forme une couronne des nouvelles petites verrues. Mais le pire est la même thérapie vendue en pharmacie. Cet ersatz d'azote liquide, mal utilisé par les mamans, peut provoquer des nécroses cutanées que nous devons traiter à l'hôpital. Employé pour les verrues du tour de l'ongle, ce produit agressif risque de détruire une partie de la matrice et créer des anomalies définitives des ongles." Enfin, la spécialiste met en garde contre la chirurgie des verrues plantaires - qui peut laisser des cicatrices douloureuses à vie - et les lasers. Alors vive les pansements !

Auteur: Le Point.fr

Info: 16/11/2011

[ médecine ]

 

Commentaires: 0

épigénétique

"Percer les secrets du vivant grâce à la biologie quantique"

En primeur pour notre magazine, Birgitta Whaley, qui dirige le Berkeley Quantum Information and Computation Center de l'université de Californie, a accepté d'expliquer en quoi les "mécanismes quantiques à l'oeuvre chez les organismes vivants" pouvaient révolutionner le monde. D'autant qu'ils ne sont qu'une cinquantaine de scientifiques à travers la planète à poursuivre ces travaux fondamentaux.

Sciences et Avenir : Quand on évoque l’information quantique, on pense en premier lieu à la physique et aux particules de matière ou de lumière. Or, vous travaillez sur le vivant ?

Birgitta Whaley : Nous étudions tout un éventail d'organismes, des plantes vertes aux bactéries, qu'il s'agisse d'unicellulaires ou de feuilles. Mais aussi des oiseaux ou d'autres animaux. Nous voulons apporter la preuve qu'il existe un comportement quantique chez ces organismes vivants, à toute petite échelle, impliquant des "grains de lumière" (photons).

Avez-vous découvert ce comportement quantique ? Oui, il est tout à fait évident que des effets quantiques sont au coeur, en particulier, de ce qu’on appelle la photosynthèse. Nous les observons dans les premiers stades de ce mécanisme essentiel à la vie qui permet l’absorption de la lumière, puis sa transformation en énergie électronique, les électrons déclenchant ensuite les réactions chimiques qui permettent la formation de glucides [constituants essentiels des êtres vivants].

Outre la connaissance fondamentale, pourquoi est-ce important de comprendre ce mécanisme ?

Parce qu’il est essentiel à la production de nourriture et donc à notre vie. Mais imaginez aussi que nous parvenions à réaliser une photosynthèse artificielle qui capture l’énergie solaire aussi bien que le font les plantes, dont le processus a été hautement optimisé après 3,6 milliards d’années d’évolution. Ce ne serait plus 15 % de rendement que l’on obtiendrait, comme cela se pratique avec le photovoltaïque aujourd’hui, mais presque 100 % !

Qu’ont donc réussi à faire les plantes, et pas nous ?

Chez les plantes vertes, des récepteurs composés de chlorophylle sont capables d’absorber des photons alors même que la lumière reçue est très faible. Chacun d’eux ne reçoit en moyenne qu’un photon toutes les dix secondes. Il faut que la plante soit vraiment très efficace pour réaliser cette absorption avec si peu de lumière. Il y a même des bactéries marines qui n’absorbent qu’un photon (dans l’infrarouge) toutes les vingt minutes.

Qu’est-il important de mesurer ?

Les détails de ce processus d’absorption, en particulier sa dynamique… Nous connaissons très bien la chlorophylle, nous savons quelle partie de la molécule absorbe le photon et à quel niveau. Le problème vient de ce que cette chlorophylle est enchâssée dans un échafaudage complexe de protéines- pigments qui se mettent à leur tour à vibrer, à entrer en rotation… Nos expériences suggèrent fortement que ces vibrations oeuvrent en conjonction avec l’excitation électronique déclenchée par l’arrivée du photon. Elles aident au transfert des électrons qui déclencheront ultérieurement des réactions chimiques. Ce mécanisme d’absorption, facilité par des effets quantiques, peut avoir jusqu’à 99 % d’efficacité. Un photon arrive, un électron est produit. Finement réglé, il répond à une nécessité de survie de l’organisme.

Quel genre d’appareillages utilisez-vous pour les mesures ?

Nous employons des faisceaux laser pulsés, qui permettent de préciser la dynamique d’excitation des molécules. Par exemple, avec trois pulses qui se succèdent [arrivée de photons d’une certaine fréquence], nous pouvons voir, lors du premier, la molécule réceptrice amorcer son passage vers un état " excité", puis, lors du deuxième pulse, la molécule devenir entièrement excitée, le troisième pulse permettant d’apporter des précisions sur la durée de cette excitation.

Cela ne semble pas évident…

En biologie, vous ne savez pas où s’arrête le système quantique et où commence son environnement. La plupart des spécialistes haussent les épaules en disant que tout cela est trop compliqué, qu’ils ne veulent même pas en entendre parler !

Dans combien de temps pensez-vous comprendre ce qui se passe ?

Peut-être dans vingt ans… Mais d’ici à dix ans, grâce à la biologie synthétique, nous devrions pouvoir élaborer une structure qui fasse progresser notre compréhension.

"COMPORTEMENT. La fascinante intelligence spatiale des oiseaux.

La migration des oiseaux et leur capacité à déterminer la bonne direction à prendre sont aussi un domaine "très tendance" en biologie quantique ! Birgitta Whaley le trouve d’autant plus fascinant que "les effets quantiques ne sont pas du tout évidents. Est peut-être impliquée ici ce qu’on nomme l’intrication quantique" [deux objets qui peuvent être spatialement séparés mais doivent être traités globalement, comme un seul]. La lumière est en effet absorbée par une molécule à l’arrière de la rétine de chaque oeil de l’oiseau, qui produit puis transfère un électron. On se demande alors quel est le comportement quantique des deux électrons (entre eux) qui pénètrent dans le cerveau de l’oiseau, ce qui lui délivre un message particulier. Mais il ne s’agit pour l’instant que "d’une belle hypothèse et il nous faudrait des données expérimentales".)

Auteur: Internet

Info: www.sciencesetavenir.fr, Dominique Leglu, 7.11.2016

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

neurologie

Construire de meilleures cartes mentales

Des techniques innovantes d'analyse de la fonction et de la structure cérébrales révèlent des détails remarquables de l'architecture neuronale, offrant ainsi de nouvelles pistes pour le diagnostic et le traitement des maladies cérébrales.

Bien que le cerveau humain soit un objet de fascination scientifique depuis des siècles, nous ne faisons qu'effleurer la surface en termes de compréhension de sa fonctionnalité et de sa complexité. Nous connaissons bien les zones fonctionnelles générales du cerveau, mais la manière dont ce réseau interconnecté de neurones traite et transmet les informations pour donner naissance à la pensée et à la mémoire reste un domaine de recherche très actif.

L'étude du fonctionnement du cerveau au niveau physiologique fondamental est l'un des domaines de recherche les plus difficiles, nécessitant de nouvelles méthodes d'expérimentation et de détection de l'activité cérébrale à l'échelle neuronale. Les progrès récents des techniques d'imagerie cérébrale et la compréhension de la structure fine du cerveau ont permis d'explorer les fonctions cérébrales d'une nouvelle manière. Ces découvertes ont des répercussions sur la santé du cerveau et l'intelligence artificielle.

Cerveau/ESPRITS et au-delà

Les projets japonais Brain Mapping by Integrated Neurotechnologies for Disease Studies (Brain/MINDS) et Strategic International Brain Science Research Promotion Program (Brain/MINDS Beyond), qui font partie de plusieurs projets nationaux de recherche à grande échelle sur le cerveau lancés ces dernières années dans le monde entier, visent à étudier les circuits neuronaux qui sous-tendent les fonctions cérébrales supérieures. Il s'agit d'initiatives nationales auxquelles participent des dizaines d'institutions, chacune spécialisée dans un domaine particulier de l'étude du cerveau.

L'étude des primates non humains à l'Université de Tokyo et à l'Institut national des sciences et technologies quantiques (QST) est un domaine qui apporte de nouvelles connaissances sur l'architecture du cerveau.

"Lorsqu'il s'agit de comprendre le cerveau humain et les troubles qui peuvent l'affecter, seuls les autres primates partagent nos fonctions supérieures, telles qu'un cortex visuel hiérarchisé et un cortex préfrontal hautement développé responsable de la fonction exécutive et de la prise de décision", explique Takafumi Minamimoto, qui dirige le groupe des systèmes et circuits neuronaux du département d'imagerie cérébrale fonctionnelle de l'Institut national des sciences et technologies quantiques.

"La recherche sur le cerveau des primates est difficile et coûteuse, mais indispensable. Elle nous permet de mieux comprendre le fonctionnement du cerveau, ce qui peut nous aider à comprendre et à traiter les troubles cérébraux chez l'homme".

L'équipe de Minamimoto se concentre sur le développement de méthodes plus précises d'analyse des fonctions cérébrales. Leur plus grande réussite a été la mise au point d'une méthode chimiogénétique pour désactiver l'activité cérébrale au niveau d'un neurone unique, combinée à la tomographie par émission de positrons (TEP) - une technique d'imagerie pour des molécules spécifiques. Cela a permis de visualiser non seulement l'activité des neurones des primates, mais aussi leur connexion avec d'autres zones du cerveau.

"Avec la chimiogénétique, nous injectons une solution virale inoffensive dans une zone spécifique du cerveau pour modifier génétiquement les neurones afin de les rendre sensibles à un produit chimique suppresseur", explique Minamimoto. "Nous pouvons ensuite injecter le suppresseur afin d'éteindre les neurones modifiés pendant plusieurs heures".

L'équipe a récemment mis au point un produit chimique suppresseur 100 fois plus efficace, ce qui lui permet d'injecter de minuscules doses de ce suppresseur pour affecter sélectivement des groupes individuels de neurones et leurs connexions axonales. Ils ont utilisé cette technique pour réduire au silence des connexions spécifiques afin de découvrir les circuits responsables de la mémoire de travail et de la prise de décision.

Cette approche est également prometteuse pour le traitement des troubles cérébraux chez l'homme. Par exemple, comme modèle potentiel de traitement chez l'homme, le groupe a récemment rapporté que la chimiogénétique peut supprimer les crises d'épilepsie chez les macaques.

Le système visuel

Une autre équipe, située à l'université de Tokyo et dirigée par Kenichi Ohki, étudie la manière dont les informations visuelles sont traitées chez les primates, dont le cortex visuel est très développé et hiérarchisé. Les recherches du groupe sur les ouistitis utilisent une technique d'imagerie calcique à haute sensibilité qui permet de visualiser la façon dont des parties spécifiques du cerveau réagissent à différents stimuli.

"L'imagerie au calcium est une technique utilisée depuis longtemps pour observer le fonctionnement du cerveau chez les souris, mais elle n'était pas assez sensible pour visualiser des groupes discrets de neurones chez les primates avec la même qualité que chez les souris", explique M. Ohki. "En collaboration avec Tetsuo Yamamori du RIKEN, nous avons mis au point une méthode améliorée qui a augmenté de manière significative l'expression de la protéine fluorescente GCaMP6 dans le cerveau des primates, ce qui, combiné à l'imagerie à deux photons basée sur le laser, nous permet de visualiser l'activité des neurones avec une étonnante précision dans des détails.

Le système visuel représente plus de la moitié du cortex cérébral chez les primates et se constitue vie une hiérarchie élaborée d'étapes de traitement de l'information. Il existe des zones distinctes qui traitent les motifs et les angles, par exemple, et les recherches d'Ohki ont montré que les neurones se déclenchent selon des schémas coordonnés sensibles à ces différents stimuli, avec des fonctionnalités différentes au niveau cellulaire.

"L'une des conclusions fascinantes de nos travaux est que la hiérarchie du système visuel semble traiter le bruit dans une direction opposée à celle dont les réseaux neuronaux artificiels traitent généralement les stimuli sonores", explique Ohki. "Il serait intéressant de construire un réseau neuronal artificiel qui permette une telle méthode de traitement du bruit dans le système visuel des primates.

Le groupe de recherche d'Ohki étudie en détail la façon dont le bruit est traité dans ces connexions cortico-corticales, qui semblent fondamentales pour le fonctionnement du cerveau chez les primates. Ces connexions peuvent également expliquer la plasticité du cerveau et la façon dont différentes zones peuvent être enrôlées pour le traitement de l'information si la connexion primaire est entravée.

"Par exemple, nous avons découvert que le développement du système visuel se produit chez le nouveau-né à la suite d'une activité ondulatoire à travers la rétine, qui stimule les connexions thalamo-corticales qui construisent cette structure hiérarchique", explique Ohki4.

Sans ces stimuli, les connexions ne peuvent pas se développer du cortex visuel primaire vers le cortex visuel supérieur. Par ailleurs, si ces connexions ne se développent pas, on peut s'attendre à ce que des connexions alternatives soient établies à partir d'autres zones, telles que le cortex somatosensoriel, vers le cortex visuel supérieur. Ohki suggère que cela pourrait également expliquer comment les patients aveugles utilisent le cortex visuel pour "lire" le braille, bien qu'il s'agisse d'une fonction tactile.

"Les résultats de nos études sur les primates fournissent des indications précieuses sur les troubles neuropsychiatriques humains, en particulier ceux qui sont liés à une mauvaise communication dans le cerveau. Nos techniques seront utiles pour orienter la recherche spécifique et transposer les connaissances des primates à l'homme", déclare M. Minamimoto.

"Nous espérons partager ces connaissances et cette technologie avec le monde entier et collaborer avec d'autres groupes pour faire avancer ce domaine important de la recherche sur le cerveau.

Auteur: Internet

Info: https://www.nature.com, article publicitaire, Réf : Nagai, Y. et al. Nat. Comm. 7, 13605 (2016), Neuro. 23, 1157-1167 (2020), Miyakawa, N. et al. Nat 608, 578-585 (2022). Comm. 14, 971 (2023)

[ visualisation ] [ primatocentrisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

On m’a dit que je gaspillais mon temps 

Malgré son emploi du temps surchargé du à son prix Nobel de physique 2022 partagé avec l’Américain John F. Clauser et ­l’Autrichien Anton Zeilinger, le physicien nous a reçus et livré un entretien inédit sur ses recherches, avec la passion qui l’anime.

AM - Vous venez de recevoir le prix Nobel de physique 2022 pour vos travaux sur l’intrication qui ont permis d’appréhender le cœur de la théorie quantique. Avant de nous expliquer vos recherches, pouvez-vous nous donner un aperçu de la "physique quantique" ?

AA - La physique quantique a été développée au début du XXe siècle pour rendre compte des propriétés du monde microscopique : les atomes, les électrons… Ce que la physique classique n’arrivait pas à faire. À la fin du XIXe siècle, on savait, par exemple, que la matière était formée de charges positives et négatives qui s’attirent. Mais pourquoi, alors, cette matière ne s’effondrait-elle pas sur elle-même ? La physique classique ne pouvait apporter aucune explication.

Pour le comprendre, il a fallu recourir à la physique quantique, notamment à l’un de ses premiers concepts : la dualité onde/particuleAinsi, un objet, par exemple la lumière, que nous décrivons comme une onde, doit aussi être considérée comme formée de grains, à savoir les photons. Réciproquement, des objets dont nous pensons que ce sont des particules – un électron, un atome, un neutron – doivent aussi, dans certaines circonstances, être considérés comme des ondes. C’est la base de ce qu’on appelle "la première révolution quantique". Cela a permis de comprendre la stabilité de la matière, la conduction du courant électrique ou la façon dont la matière émet ou absorbe la lumière.

Et puis dans les années 1940-1960, ce fut l’invention du transistor et du laser qui s’appuyaient sur cette théorie quantique. Ces deux technologies n’ont pas été élaborées par un bricoleur dans un garage en Californie, mais par les plus grands physiciens de l’époque qui ont eu des prix Nobel. Une fois qu’on a le transistor, on a les circuits intégrés à la base des ordinateurs.

AA - Et qu’appelle-t-on deuxième révolution quantique ?

AA - Elle a été lancée par un article d’Albert Einstein, de Boris Podolsky et de Nathan Rosen en 1935. Ils découvrent dans les équations mathématiques de la physique quantique des états où deux particules qui ont interagi, mais qui n’interagissent plus, semblent continuer à former un tout inséparable. C’est ce que l’on appellera l’"intrication". Dès le début, le physicien Niels Bohr s’était opposé aux conclusions d’Einstein. Son homologue John Bell a alors proposé, en 1964, de faire des expérimentations pour trancher la discussion.

Il a ensuite fallu plusieurs décennies pour que les autres physiciens réalisent la portée des travaux de Bell. Quand j’ai commencé ma thèse en 1974, nombre d’entre eux pensaient que l’intrication n’était pas différente de la dualité onde/particule. Puis, on a pris conscience de sa nouveauté. C’est pourquoi je parle d’une "deuxième révolution quantique", d’abord sur le plan de la recherche fondamentale, mais également sur les nouvelles applications que cela a suscitées, comme la cryptographie ou les ordinateurs quantiques.

AM - Comment a-t-on validé ce phénomène "d’intrication" ?

AA - Il fallait créer une paire de photons et une méthode pour montrer que, même éloignés, les deux photons demeuraient corrélés. Le photon, c’est de la lumière et la lumière a une polarisation. Un polariseur est un instrument d’optique qui a deux sorties associées à l’orientation de son axe : tout l’objet du test est de regarder comment les résultats dépendent de cette orientation. Si les polariseurs sont parallèles, vous avez une corrélation parfaite, vous trouvez les mêmes résultats des deux côtés. Imaginez que je lance deux pièces à 10 mètres de distance l’une de l’autre, ça a l’air aléatoire, mais si j’ai pile d’un côté, j’ai pile de l’autre, et si j’ai face d’un côté, j’ai face de l’autre. C’est la corrélation prévue pour les photons intriqués. Et cette corrélation est si forte qu’on ne peut en rendre compte que par la physique quantique.

AM - Quelles expériences ont été réalisées pour établir cette intrication ?

AA - La première expérience a été faite par John Clauser et Stuart Freedman en 1964. Celles que j’ai faites dix ans plus tard et celles qu’Anton Zeilinger a effectuées seize ans après moi ont des niveaux de raffinement différents, mais portent sur des objets identiques : il s’agit de deux photons émis par la même source et qui s’éloignent l’un de l’autre dans des directions opposées. J’ai mis cinq ans à fabriquer ma source. J’ai commencé en 1974 et les premières paires de photons intriqués ont été obtenues vers 1979-1980. Pour ce faire, je prends des atomes, je tape dessus avec des lasers, je les "excite" de façon contrôlée, et ils n’ont pas d’autre choix que d’émettre les deux photons dont j’ai besoin.

Après l’émission des photons et avant leur détection, il faut que les deux polariseurs soient éloignés l’un de l’autre et que leur orientation soit déterminée au dernier moment afin qu’ils ne s’influencent pas. Ainsi, mes deux polariseurs sont distants de 6 mètres de la source et je change leur orientation pendant le temps de vol des photons qui est de 20 nanosecondes… Comment tourner un appareil en 20 milliardièmes de seconde ? C’est impossible, mais j’ai eu l’idée de construire une espèce d’aiguillage capable de le faire et l’expérience a réussi.

AM - D’où vient votre passion pour la physique ?

Je suis originaire du village d’Astaffort (Lot-et-Garonne) à une époque où les champs étaient labourés avec le cheval ou les bœufs, mais j’étais fasciné par le moindre objet technique, par exemple les outils des artisans. Je me souviens de la visite, à Fumel, d’un haut-fourneau qui fournissait de la fonte transformée en tuyaux comme ceux que j’avais vu poser dans mon village pour installer l’eau courante. À l’école primaire, les instituteurs et institutrices faisaient ce que l’on appelait des "leçons de choses". J’étais aussi un grand lecteur de Jules Verne.

Arrivé au lycée d’Agen, je me réjouissais à l’idée de faire de la physique-chimie, mais on ne commençait qu’en seconde. J’ai eu alors un professeur formidable, Maurice Hirsch, qui nous faisait des expériences extraordinaires. Il a décuplé mon intérêt pour la physique et m’a enseigné des méthodes que j’ai conservées toute ma vie.

AM - Quels conseils donneriez-vous aux jeunes qui souhaiteraient se lancer dans votre discipline ?

AA - Il est clair qu’il y a un problème de moyens financiers. La loi de programmation de la recherche fait des propositions intéressantes, mais quand on regarde les budgets associés, ils sont inférieurs à ce que l’Académie des sciences avait estimé être le minimum pour que la recherche française puisse rester au niveau des concurrents étrangers. Les crédits de base, y compris ceux de l’Agence nationale de la recherche, sont décevants, même s’ils ne sont pas négligeables. Heureusement, on peut obtenir des crédits européens pour des projets innovants jugés au meilleur niveau, mais seul un petit nombre de chercheurs peut en bénéficier.

On me demande souvent si, aujourd’hui, on pourrait faire la même chose que ce que j’ai fait dans les années 1970-1980. Certainement pas de la même façon, mais un chercheur titulaire peut se lancer dans un projet de recherche original. Au pire, sa carrière sera freinée mais, moi aussi, je courais ce risque. Comme j’avais un poste permanent, je pouvais me lancer dans une recherche à long terme sans craindre de perdre mon emploi d’enseignant-chercheur.

On m’a dit que je gaspillais mon temps, que mon sujet n’avait aucun intérêt, mais je gardais mon emploi. Il en est toujours de même. Si un scientifique du CNRS ou de l’université se lance dans une recherche ­désapprouvée par les comités, il peut persévérer s’il accepte un certain retard de carrière. Bien sûr, si au bout de dix ans son travail n’a débouché sur rien, il doit se remettre en cause, les comités n’avaient peut-être pas tort.



 

Auteur: Aspect Alain

Info: Interviewé par Anna Musso pour https://www.humanite.fr, 8 Novembre 2022

[ nano-monde ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

rapports humains

Le bruit en moi c’est moi qui l’invente le son je ne l’ai jamais entendu à la naissance J'écris pour que vous, lecteur entendant puisse comprendre mes émotions. La surdité c’est plus compliqué que ça. Suffit pas de parler plus fort (entre nous, ça ne me sert à rien), Suffit pas de se rapprocher de moi et baisser la tête vers le bas (c’est pire parce que je dois "descendre" physiquement pour être à votre niveau), Suffit pas de ne pas bouger le corps, mais dodeliner de la tête, çela n’aide pas non plus… (j’essaie de faire avec mais des fois avec la fatigue donc je laisse tomber), Lecteur entendant, si vous n’articulez pas, que vous me regardez pas, je ne peux pas comprendre ce que vous me dites. Pardon si je pète un câble, mais j’ai beau faire des efforts, mais parfois c’est sur-humain ce que les entendants me demandent. Ne pas comprendre une conversation "ping-pong" ça arrive souvent, oui parce que ça va très vite, et moi le temps que je comprenne… C’est à retardement, c’est très pénible d’arriver après. Mais surtout c’est nul d’avoir un train voire un wagon de retard dans la conversation : j’ai l’air bête au final, et je n’aime pas ça. Ces derniers temps, c’est devenu un moment pénible pour moi. J’ai de plus de plus de mal à suivre les conversations. Bien souvent, j’acquiesce de façon à rassurer la personne et je n’ai pas forcément compris. Je ne le dis pas forcément à chaque fois. Ce serait trop pénible. Pour elle, pour lui, pour eux, pour moi. Je suis arrivée à un stade de ma vie, où je n’ai plus envie de me prendre la tête à essayer de comprendre ce qui se passe autour de moi. Essayer de choper les mots qui sortent de la bouche des personnes, les reconstituer dans mon cerveau, analyser la phrase pour ensuite réagir. Je suis fatiguée de cet exercice. J’aimerais que ce soit fluide, ne plus penser, que les choses viennent toutes seules. Moi qui étais tout le temps à l’affût pour ne pas être en décalage avec les autres, j’ai presque envie de me renfermer dans ma coquille. De ne plus penser. Je suis fatiguée d’essayer de comprendre les personnes qui m’entourent, d’essayer de les décrypter pour savoir si ça va bien ou mal. Après tout, ça pourrait m’être égal mais l’intérêt est de pouvoir échanger, de rire, pas d’être renfermée dans sa bulle. On vit dans un monde auditif et pas visuel. Fatiguée d’avoir un temps de retard dans les conversations.Fatiguée d’anticiper le vocabulaire de chacun, pour justement ne pas avoir ce temps de retard à cause de l’analyse que je vais faire dans mon cerveau pour reconstituer cette phrase qui vient d’être dite. Fatiguée de faire preuve de souplesse pour être au top. Apprendre à lâcher-prise. Apprendre à gérer cette frustration à laquelle je suis trop habituée, frustration de ne pas comprendre ce qui se passe autour de moi. Je pourrais me laisser aller, mais ce n’est pas la vie que j’ai choisie, pas d’être en recul, isolée. Il faudrait que l’effort vienne de l’autre côté aussi, que les situations soient moins compliquées, plus simples. Je suis bien consciente que les gens qui m’entourent n’ont pas forcément conscience de l’effort qui est fait tous les jours, qu’ils n’ont pas conscience que c’est bien plus subtil que cela, que la surdité est un handicap sournois qui peut vous isoler très vite. En particulier avec une personne c’est plus simple sinon c’est l’engouffrement. Pour être plus confortable: je choisis être avec 1 ou 2 maxi pas plus c’est moins fatiguant plus – Plus je prends l’âge, je suis fatiguée labialement. Etre avec les Entendants vous force à vous battre, à vous faire accepter, à vous faire comprendre à ceux qui n’ont pas de problème que le monde n’est pas parfait… L'univers de la surdité reste, pour moi, un long combat. Pour les Entendants qui croisent ma vie , existe un malaise elle provoque des quiproquos qui sont à l'origine d'une immense déchirure. Ce manque de patience et cette révolte au quotidien. Nous devons marcher sur des œufs pour ne pas froisser ou couper le fil, le fil si sensible et de si courte durée qui nous relie aux Entendants et de jour en jour, il faut refaire ces efforts épuisants pour convaincre que nous ne sommes pas des personnes venues d'ailleurs qui bricolent des mots, des phrases. Pour parvenir à me faire comprendre. Il faut oser, ruser, séduire, persévérer, emmurée complètement dans ce silence 24h sur 24, l'oreille morte, absente, détachée du corps, déconnectée. Rien que des vagues de sensations, de choses ne peuvent définir ce que peut être le son d'un souffle, d'une vibration, si peu de détails que perçoit notre corps pour tenter de saisir ce que parler veut dire. Heureusement, là, les yeux se multiplient : l'œil qui me sauve, l'œil qui remplace l'oreille, l'œil qui épie, qui guette le mouvement de secours dans les mauvaises passes. Là j'essaie de déchiffrer rapidement, tel un rapace, l'œil et le cerveau branchés en ligne directe S.O.S. ! Ma vue représente pour moi le guide, le troisième œil, œil qui sauve mon humeur, mon honneur, le respect de moi même. Ce regard se veut perçant comme un laser, qui se glisse sur les visage, les scrute pour déchiffrer leurs messages. Les Entendants se lassent rapidement. Trop d'efforts pour peu de choses à dire mais pour moi, en attente de cette communication, je me sens par moments complètement impuissante. Cette impression douloureuse avec la peur de craquer, avec l'envie de hurler aux autres: faites cet effort qui donne un sens à ma vie silencieuse. Torture consentante, malgré moi : je dois accepter ce jumeau insupportable qui d'un regard, chaque matin, me frôle à nouveau et me marche sur le pied pour bien me montrer sa présence. Le silence… Film muet d'avant-guerre où les personnes se déplacent avec des gestes saccadés, avec des mimiques ridicules pour ne pas lasser le spectateur de cette pantomime. Rire, truchement du geste inhabituel, provocateur, loin du réel. Montrer sa présence sans bruit. Et puis moi petit poisson dans un bocal. Je les vois se tortiller, la bouche grande ouverte, les yeux bien ronds sortant des orbites. J'ai l'impression que je suis une bête curieuse dont on doit faire attention. Instinctivement, je les sens parler trop fort, avec beaucoup d'efforts. Une démarche inhabituelle. Je souris, leur visage se détend. Ils se sentent mieux dans cette approche de la communication. Ils soufflent, heureux que je saisisse au vol ces mots qu'ils échangent peu à peu. Mon instinct me dit qu'ils se fatiguent. Un petit mot gentil et hop ! terminé. Très court, beaucoup trop court le moment, les moments d'explication ou par malchance se glissent malicieux des quiproquos. Je ne peux pas toujours faire face. Je me sens menacée et par pudeur pour eux, je m'excuse pour ne pas les blesser. Jeu de ping-pong où j’essaie avec acrobatie de garder la balle dans mon camp le plus longtemps dans ce jeu de mots qui par moments me trouble. Chaque expression de leurs bouches, au fil de leurs lèvres, où je dois comme un funambule garder l'équilibre. Mon œil s'attache à cette partie du corps d'où sortent ces mots qui me sont absents à l’oreille et dans cette bouche, seul espoir de converser, dans ce double jeu, mon rôle est important. Je dois mettre à l'aise doucement, sans agresser mon interlocuteur. La lecture labiale n'est pas toujours… Car sur les lèvres il arrive que je ne détecte pas le sens de leurs propos. Là je bafouille un peu en essayant par de grands efforts de reprendre espoir. Je garde mon sang-froid, et essaie de mon mieux à raccrocher les mots. Je les oblige à parler et j'improvise dans le sens de la conversation avec tact pour éviter les dérapages, le vide. Le réflexe de reculer pour mieux voir les mots car seul mon œil est vigilant comme un radar. Il détecte la pensée avant le mot. Inquiète comme un oiseau de proie ou jolie Dame Blanche, les grands yeux bien ouverts pour mieux me diriger sans trébucher dans le regard des autres.

Auteur: Aurélie de La Selle

Info: Mail à Mg, oct 2016

[ hypoacousie ] [ handicap ] [ infirmité ] [ sourde ] [ témoignage ]

 

Commentaires: 0

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel