Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1129
Temps de recherche: 0.0511s

symbiose

Les cellules du corps se parlent du vieillissement

Les biologistes ont découvert que les mitochondries de différents tissus communiquent entre elles pour réparer les cellules blessées. Lorsque leur signal échoue, l’horloge biologique commence à ralentir.

Le vieillissement peut apparaitre comme un processus non régulé : au fil du temps, nos cellules et notre corps accumulent inévitablement des bosses et des bosses qui provoquent des dysfonctionnements, des échecs et finalement la mort. Cependant, en 1993, une découverte a bouleversé cette interprétation des événements. Les chercheurs ont trouvé une mutation dans un seul gène qui doublait la durée de vie d'un ver ; des travaux ultérieurs ont montré que des gènes apparentés, tous impliqués dans la réponse à l'insuline, sont des régulateurs clés du vieillissement chez une multitude d'animaux, depuis les vers et les mouches jusqu'aux humains. La découverte suggère que le vieillissement n’est pas un processus aléatoire – en fait, des gènes spécifiques le régulent – ​​ce qui ouvre la porte à des recherches plus approfondies sur la manière dont le vieillissement se déroule au niveau moléculaire.

Récemment, une série d’articles ont documenté une nouvelle voie biochimique qui régule le vieillissement, basée sur les signaux transmis entre les mitochondries, les organelles les plus connues comme la centrale électrique de la cellule. En travaillant avec des vers, les chercheurs ont découvert que les dommages causés aux mitochondries dans les cellules cérébrales déclenchaient une réponse de réparation qui était ensuite amplifiée, déclenchant des réactions similaires dans les mitochondries de tout le corps du ver. L'effet de cette activité de réparation prolonge la durée de vie de l'organisme : les vers dont les dommages mitochondriaux étaient rainsi éparés vivaient 50 % plus longtemps.

De plus, les cellules de la lignée germinale – les cellules qui produisent les ovules et les spermatozoïdes – étaient au cœur de ce système de communication anti-âge. C’est une découverte qui ajoute de nouvelles dimensions aux préoccupations en matière de fertilité impliquées lorsque les gens parlent du vieillissement et de leur " horloge biologique ". Certaines des découvertes ont été rapportées dans Science Advances et d’autres ont été publiées sur le serveur de prépublication scientifique biorxiv.org à l’automne.

La recherche s'appuie sur un ensemble de travaux récents suggérant que les mitochondries sont des organites sociaux qui peuvent communiquer entre elles même lorsqu'elles se trouvent dans des tissus différents. Essentiellement, les mitochondries fonctionnent comme des talkies-walkies cellulaires, envoyant des messages dans tout le corps qui influencent la survie et la durée de vie de l’organisme tout entier.

"Ce qui est important ici, c'est qu'en plus des programmes génétiques, il existe également un facteur très important pour réguler le vieillissement, à savoir la communication entre les tissus", a déclaré David Vilchez, qui étudie le vieillissement à l'Université de Cologne et n'a pas participé à l'étude. 

Le biologiste cellulaire Andrew Dillin a découvert il y a environ dix ans les premiers indices de cette nouvelle voie qui régule la durée de vie. Il était à la recherche de gènes prolongeant la vie des vers Caenorhabditis elegans lorsqu'il a découvert que les dommages génétiques aux mitochondries prolongeaient la vie des vers de 50 %.

C'était inattendu. Dillin avait supposé que des mitochondries défectueuses accéléreraient la mort plutôt que de prolonger la vie – après tout, les mitochondries sont essentielles au fonctionnement cellulaire. Pourtant, pour une raison ou une autre, le fait de perturber le bon fonctionnement des mitochondries obligeait les vers à vivre plus longtemps.

Plus intrigant était le fait que les mitochondries endommagées dans le système nerveux des vers semblaient être à l'origine de cet effet. "Cela montre vraiment que certaines mitochondries sont plus importantes que d'autres", a déclaré Dillin, qui est maintenant professeur à l'Université de Californie à Berkeley. "Les neurones dictent cela au reste de l'organisme, et c'était vraiment surprenant."

Au cours de la dernière décennie, le biologiste cellulaire Andrew Dillin a découvert les détails biochimiques d'une nouvelle voie qui régule le vieillissement, dans laquelle les mitochondries des cellules du corps communiquent sur la santé cellulaire.

Aujourd'hui, Dillin et son équipe ont élargi ces découvertes en découvrant de nouveaux détails sur la façon dont les mitochondries du cerveau communiquent avec les cellules du corps du ver pour prolonger la vie.

Tout d'abord, il fallait comprendre pourquoi des dommages causés aux mitochondries du cerveau pouvaient avoir un effet bénéfique sur l'organisme. Le processus de production d'énergie d'une mitochondrie nécessite une machinerie moléculaire extrêmement complexe comprenant des dizaines de parties protéiques différentes. Lorsque les choses tournent mal, par exemple lorsque certains composants sont manquants ou mal repliés, les mitochondries activent une réponse au stress, connue sous le nom de réponse protéique dépliée, qui délivre des enzymes de réparation pour aider les complexes à s'assembler correctement et à restaurer la fonction mitochondriale. De cette façon, la réponse protéique déployée maintient les cellules en bonne santé.

Dillin s’attendait à ce que ce processus se déroule uniquement à l’intérieur des neurones dont les mitochondries sont endommagées. Pourtant, il a observé que les cellules d’autres tissus du corps du ver activaient également des réponses de réparation même si leurs mitochondries étaient intactes.

C'est cette activité de réparation qui a permis aux vers de vivre plus longtemps. Comme si on emmenait régulièrement une voiture chez un mécanicien, la réponse protéique déployée semblait maintenir les cellules en bon état de fonctionnement et fonctionner comme un élément anti-âge. Ce qui restait mystérieux était la façon dont cette réponse protéique déployée était communiquée au reste de l’organisme.

Après quelques recherches, l'équipe de Dillin a découvert que les mitochondries des neurones stressés utilisaient des vésicules – des conteneurs en forme de bulles qui déplacent les matériaux autour de la cellule ou entre les cellules – pour transmettre un signal appelé Wnt au-delà des cellules nerveuses vers d'autres cellules du corps. Les biologistes savaient déjà que Wnt joue un rôle dans la configuration du corps au cours du développement embryonnaire précoce, au cours duquel il déclenche également des processus de réparation tels que la réponse protéique déployée. Pourtant, comment la signalisation Wnt, lorsqu’elle est activée chez un adulte, pourrait-elle éviter d’activer le programme embryonnaire ?

Dillin soupçonnait qu'il devait y avoir un autre signal avec lequel Wnt interagissait. Après d'autres travaux, les chercheurs ont découvert qu'un gène exprimé dans les mitochondries de la lignée germinale – et dans aucune autre mitochondrie – peut interrompre les processus de développement de Wnt. Ce résultat lui suggère que les cellules germinales jouent un rôle essentiel dans le relais du signal Wnt entre le système nerveux et les tissus du reste du corps.

"La lignée germinale est absolument essentielle pour cela", a déclaré Dillin. Il n’est cependant pas clair si les mitochondries germinales agissent comme des amplificateurs, recevant le signal des mitochondries du cerveau et le transmettant à d’autres tissus, ou si les tissus récepteurs " écoutent " les signaux provenant des deux sources.

Quoi qu’il en soit, la force du signal germinal régule la durée de vie de l’organisme, a déclaré Dillin. À mesure qu’un ver vieillit, la qualité de ses œufs ou de son sperme diminue – ce que nous appelons le tic-tac d’une horloge biologique. Ce déclin se reflète également dans la capacité changeante des cellules germinales à transmettre les signaux des mitochondries du cerveau, a-t-il suggéré. À mesure que le ver vieillit, sa lignée germinale transmet le signal de réparation moins efficacement et son corps décline également.

Les scientifiques ne savent pas encore si ces découvertes s’appliquent aux humains et à notre façon de vieillir. Pourtant, l’hypothèse a du sens d’un point de vue évolutif plus large, a déclaré Dillin. Tant que les cellules germinales sont saines, elles envoient des signaux favorables à la survie pour garantir que leur organisme hôte survit et se reproduit. Mais à mesure que la qualité des cellules germinales diminue, il n’y a aucune raison évolutive de continuer à prolonger la durée de vie ; du point de vue de l'évolution, la vie existe pour se reproduire.

Le fait que les mitochondries puissent communiquer entre elles peut sembler quelque peu alarmant, mais il existe une explication. Il y a longtemps, les mitochondries étaient des bactéries libres qui s’associaient à un autre type de cellules primitives pour travailler ensemble dans ce qui est devenu nos cellules complexes modernes. Ainsi, leur capacité à communiquer est probablement une relique de l’ancêtre bactérien libre des mitochondries.

"Cette petite chose qui existe à l'intérieur des cellules depuis des milliards d'années conserve toujours ses origines bactériennes", a déclaré Dillin. Et si ses recherches sur les vers se confirment dans des organismes plus complexes comme les humains, il est possible que vos mitochondries parlent en ce moment de votre âge. 



 

Auteur: Internet

Info: https://www.quantamagazine.org/, Viviane Callier, 8 janvier 2024

[ impulsion source ] [ jouvence ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

mémorisation

Ce qu'il se passe dans notre cerveau quand on se rappelle un souvenir

La mémoire n'est pas assurée par une partie spécifique du cerveau, mais plutôt par des connexions entre les neurones.

(Photo : Les engrammes, connexions entre des neurones actifs, façonnent nos souvenirs.) 

La mémoire est une aptitude essentielle qui nous permet d'intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n'est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

Le processus de la mémoire débute par l'encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu'un texte que vous venez de lire, par exemple. 

 Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l'adaptation du comportement en fonction des expériences passées. L'oubli survient en cas d'absence d'accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d'un souvenir dans le cerveau.

L'engramme, un concept ancien réétudié

Les prémices de la compréhension de la mémoire en tant que modification durable du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de cent ans par le biologiste allemand Richard Semon. C'est lui qui nomme et définit l'engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l'expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l'activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

Un réseau de neurones qui se renforce

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu'est un engramme. Fondamentalement, la création d'un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l'apprentissage. Les connexions entre les neurones se produisent au niveau d'une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble: c'est l'engramme proprement dit.

Ainsi, lorsqu'une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d'ailleurs pas spécifiques à la mémoire, et en plus d'intégrer l'engramme, ils continuent d'interagir au sein de réseaux différents pour remplir d'autres fonctions. 

Le stockage d'un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu'un schéma d'activité neuronale qui s'est produit pendant l'apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir.

Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l'odeur de la lavande déclenche l'activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu'à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu'il existe mais qu'il ne peut plus être activé par un stimulus externe

(Image : Les états dynamiques de l’engramme, de l'apprentissage à l'oubli. Document fourni par l'auteur)

Encodage, consolidation et rappel, les étapes clés du souvenir

Pendant l'apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d'être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recruté dans la formation d'un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l'emportent et deviennent des cellules d'engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l'engramme.

Pendant la consolidation, l'engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l'activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l'on observe une réactivation des neurones impliqués. 

En présence dans notre environnement d'éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir: c'est le rappel. Ce processus implique la réactivation de l'engramme. Pendant le rappel, les neurones qui étaient actifs lors de l'apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l'engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d'autres peuvent se perdre.

Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l'événement par rapport à comment il s'est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d'être racontées ou rappelées.

Pourquoi les souvenirs changent-ils?

L'engramme n'est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d'émotion qu'on lui associe. On peut alors en perdre les détails pour ne garder qu'une sensation positive ou négative selon l'importance qu'a ce souvenir pour nous. Prenons l'exemple d'un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l'heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l'oubli, c'est un phénomène généralement défini comme l'absence de manifestation comportementale d'un souvenir, même s'il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu'on vous demande la date de décès de Vercingétorix: vous avez appris à l'école qu'il s'agit de 46 av. J.-C., mais vous l'avez oubliée par la suite car elle n'avait peut-être plus d'utilité dans votre vie.

Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

L'oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d'Alzheimer. Même si les informations sont d'une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d'y accéder. Selon cette perspective, l'oubli peut alors résulter soit d'une dégradation totale de l'engramme, entraînant une indisponibilité de la mémoire, soit d'un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu'il y ait des modifications synaptiques au niveau d'un engramme, ce qui le déstabilise et augmente alors la probabilité d'oubli.

Un espoir pour retrouver les souvenirs disparus

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l'engramme. Des engrammes " silencieux " ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l'environnement ne le peuvent pas.

Ces résultats suggèrent que l'oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu'à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l'activité directe des neurones formant l'engramme à différentes étapes de sa formation. Grâce à l'activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l'engramme. Cette connectivité correspond au fait que l'on peut associer l'activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement.

Ainsi nous pouvons suivre l'engramme au cours des processus d'apprentissage, de consolidation, de rappel et d'oubli et étudier sa dynamique. À long terme, l'objectif serait d'exploiter ces résultats afin de mieux appréhender l'acquisition, le stockage et l'utilisation de l'information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d'autres dysfonctionnements cognitifs.   

 

Auteur: Villet Maxime

Info: https://www.slate.fr/story, 7 mai 2024

[ déformation mémorielle ] [ itération ]

 

Commentaires: 0

Ajouté à la BD par miguel

perception humaine

Les schémas mathématiques secrets révélés par la musique de Bach

Le compositeur baroque allemand Jean Sébastien Bach a produit une musique si bien structurée qu'elle est souvent comparée aux maths. Bien que peu d'entre nous soient émotionnellement affectés par les mathématiques, les œuvres de Bach - et la musique en général - nous émeuvent. C'est plus que du son ; c'est un message. Désormais, grâce aux outils de la théorie de l'information, les chercheurs commencent à comprendre comment la musique de Bach fait passer ce message.

En faisant de ses partitions de simples réseaux de points, appelés nœuds, reliés par des lignes, nommeés bords, les scientifiques ont quantifié les informations véhiculées par des centaines de compositions de Bach. Analyse de ces réseaux musicaux publiée le 2 février dans Physical Review Research qui révèle que les nombreux styles musicaux de Bach, tels que les chorales et les toccatas, différaient considérablement dans la quantité d'informations qu'ils communiquaient - et que certains réseaux musicaux contenaient des structures qui pouvaient faciliter la compréhension de leurs messages par les auditeurs humains.

" Je trouve cette idée vraiment cool ", explique le physicien Suman Kulkarni de l’Université de Pennsylvanie, auteur principal de la nouvelle étude. " Nous avons utilisé des outils de la physique sans faire d’hypothèses sur les pièces musicales, en commençant par cette simple représentation et en voyant ce qui peut nous dire sur les informations qui sont transmises. "

Les chercheurs ont quantifié le contenu de toute cette information, des séquences simples aux réseaux enchevêtrés, utilisant le concept d'entropie de l'information, introduit par le mathématicien Claude Shannon en 1948.

Comme son nom l'indique, l'entropie de l'information est mathématiquement et conceptuellement liée à l'entropie thermodynamique. Elle peut être considérée comme une mesure du degré de surprise d'un message - "message" qui peut être tout ce qui transmet des informations, d'une séquence de nombres à un morceau de musique. Cette perspective peut sembler contre-intuitive, étant donné que, dans le langage courant, l'information est souvent assimilée à la certitude. Mais l'idée clé de l'entropie de l'information est qu'apprendre quelque chose que l'on sait déjà n'est pas apprendre du tout.

Une conversation avec une personne qui ne sait exprimer qu'une chose, comme le personnage Hodor dans la série télévisée Game of Thrones, qui dit seulement " Hodor ", sera prévisible mais pas informationelle. Une discussion avec Pikachu sera un peu meilleure ; le Pokémon ne peut dire que les syllabes de son nom, mais il peut les réarranger, contrairement à Hodor. De même, une pièce de musique ne comportant qu'une seule note sera relativement facile à "apprendre" par le cerveau, c'est-à-dire à reproduire avec précision sous la forme d'un modèle mental, mais le morceau aura du mal à faire passer un quelconque message. Regarder un jeu de pile ou face avec une pièce à deux têtes ne donnera aucune information.

Bien sûr, envoyer un message plein d'informations n'est pas très bon si le quelque chose - ou qui que ce soit - qui le reçoit ne peut  comprendre avec précision ces informations. Et quand il s'agit de messages musicaux, les chercheurs travaillent encore sur la façon dont nous apprenons ce que la musique essaie de nous dire.

" Il existe quelques théories différentes ", explique le cognitiviste Marcus Pearce de l’université Queen Mary de Londres, qui n’a pas participé à la récente étude de la recherche sur l’évaluation physique. " La principale, je pense, en ce moment, est basée sur l’apprentissage probabiliste. Dans ce cadre, "apprendre" la musique signifie construire des représentations mentales précises des sons réels que nous entendons - ce que les chercheurs appellent un modèle - par un jeu d'anticipation et de surprise. Nos modèles mentaux prédisent la probabilité qu'un son donné vienne ensuite, sur la base de ce qui a précédé. Ensuite, explique M. Pearce, " on découvre si la prédiction était juste ou fausse, et on peut alors mettre à jour son modèle en conséquence".

Kulkarni et ses collègues sont physiciens, pas musiciens. Ils voulaient utiliser les outils de la théorie de l'information pour explorer la musique à la recherche de structures d'information qui pourraient avoir quelque chose à voir avec la façon dont les humains glanent un sens de la mélodie.

Ainsi Kulkarni a transformé 337 compositions de Bach en bandes de nœuds interconnectés et calculé l'entropie de l'information des réseaux qui en résultent. Dans ces réseaux, chaque note de la partition d'origine est un noeud, et chaque transition entre notes est un pont. Par example, si une pièce inclut une note Mi suivie d'un Do et d'un Sol joués ensemble, le noeud représentant E sera relié aux noeuds représentant Do et Sol.

Les réseaux de ce notation transitions dans la musique de Bach ont générés plus de poinçon d'information que des réseaux de même taille générés aléatoirement - le résultat d'une plus grande variation dans les degrés nodaux des réseaux, c'est-à-dire le nombre d'arêtes connectées à chaque nœud. En outre, les scientifiques ont découvert des variations dans la structure de l'information et le contenu des nombreux styles de composition de Bach. Les chorals, hymnes destinés à être chanté, ont donné lieu à des réseaux relativement pauvres en informations, bien que plus riches en informations que les réseaux de même taille générés de manière aléatoire. Les toccatas et les préludes, styles musicaux souvent écrits pour des instruments à clavier tels que l'orgue, le clavecin et le piano, présentant une entropie de l'information plus élevée.

" J’ai été particulièrement excité par les niveaux plus élevés de surprises dans les toccatas que dans les œuvres chorales ", explique le co-auteur de l’étude et physicien Dani Bassett de l’Université de Pennsylvanie. " Ces deux types de pièces sonnent et résonnent différement dans mes os, et ça m'a passionné de voir que cette distinction se manifeste dans l'information de composition. "

Ces structures de réseau dans les compositions de Bach pourraient également permettre aux auditeurs humains d'apprendre plus facilement certaines choses. Les humains n'apprennent pas parfaitement les réseaux. Nous avons des préjugés, dit Bassett. " Nous ignorons en quelque sorte certaines des informations locales au profit de la vue d’une image plus grande de l’information sur l’ensemble du système ", ajoute-t-ils. En modélisant ce biais dans la façon dont nous construisons nos modèles mentaux de réseaux complexes, les chercheurs ont comparé l'ensemble des informations de chaque réseau musical à la quantité d'informations qu'un auditeur humain en tirerait.

Des réseaux musicaux contenaient des groupes de transitions de notes pourraient aider nos cerveaux biaisés " apprendre " la musique - à reproduire la structure informationnelle de la musique avec précision en tant que modèle mental - sans sacrifier beaucoup d'informations.

" La façon dont elles saisissent l’aptitude à l’apprentissage est assez intéressante ", déclare Peter Harrison de l’Université de Cambridge, qui n’a pas participé à l’étude. " C'est très réducteur dans un certain sens. Mais c'est tout à fait complémentaire avec d'autres théories que nous connaissons, et l'aptitude à apprendre est assez difficile à maîtriser ".

Ce type d'analyse de réseau n'est pas particulier à Bach et il pourrait fonctionner pour n'importe quel compositeur. Pearce dit qu'il sera  intéressant d'utiliser cette approche pour comparer différents compositeurs ou rechercher des tendances informatives à travers l'histoire de la musique. Pour sa part, Kulkarni est excité à l'idée d'analyser les propriétés d'information de partitions d'au-delà de la tradition musicale occidentale.

La musique n'est pas seulement une séquence de notes, note cependant Harrison. Le rythme, le volume, le timbre des instruments, ces éléments sont des aspects importants des messages musicaux qui n'ont pas été pris en compte dans cette étude. Kulkarni dit qu'il sera intéressé par l'inclusion de ces aspects de la musique dans ses réseaux. Le processus pourrait également fonctionner dans l'autre sens, ajoute M. Harrison : plutôt que réduire les caractéristiques musicales à un réseau, il sera intéressant de savoir comment les caractéristiques du réseau se traduisent par des éléments qu'un musicien reconnaîtrait.

Un musicien dira : " Quelles sont les règles musicales réelles, ou les caractéristiques musicales, qui en sont à l’origine ? Puis-je l’entendre sur un piano ? " précise Harrison.

Enfin, on ne sait pas encore exactement comment les modèles de réseaux identifiés dans la nouvelle étude se traduisent dans l'expérience vécue à l'écoute d'un morceau de Bach - ou de n'importe quelle musique, précise M. Pearce. La résolution de ce problème relèvera de la psychologie musicale, poursuit-il. Des expériences pourraient révéler "si, de fait, ce genre de choses est perceptible par les gens et quels sont leurs effets sur le plaisir que les gens éprouvent lorsqu'ils écoutent de la musique". De même Harrison se dit intéressé par des expériences visant à vérifier si les types d'erreurs d'apprentissage en réseau que les chercheurs ont modélisés dans cette étude sont réellement importants pour l'apprentissage de la musique.

"Le fait que les humains présentent ce type de perception imparfaite et biaisée de systèmes informationnels complexes est essentiel pour comprendre comment nous nous impliquons dans la musique", explique M. Bassett. "Comprendre la complexité informationnelle des compositions de Bach ouvre de nouvelles questions sur les processus cognitifs qui sous-tendent la manière dont nous apprécions les différents types de musique."

Auteur: Internet

Info: https://www.scientificamerican.com, 16 féb 2024. Elise Cutts - Secret Mathematical Patterns Revealed in Bach's Music

[ sentiment naturel ] [ approfondissement découverte ] [ dépaysement plaisir ] [ cybernétisation ] [ simple compliqué ] [ occulte harmonie ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

dieu carbone

(Q) - Quel est le rapport entre la tétravalence de l'atome du carbone et les 4 bases de l'adn

(R) - La tétravalence de l'atome de carbone permet la formation de molécules d'ADN avec quatre bases azotées différentes. En effet, l'atome de carbone peut former quatre liaisons covalentes, ce qui lui permet de se lier à quatre autres atomes. Dans le cas de l'ADN, ces quatre atomes sont des bases azotées, qui sont des composés organiques contenant de l'azote.

Les quatre bases azotées de l'ADN sont l'adénine (A), la thymine (T), la guanine (G) et la cytosine (C). Ces bases se lient entre elles de manière spécifique, l'adénine se liant toujours à la thymine, et la guanine se liant toujours à la cytosine. Cette liaison spécifique est responsable de la structure en double hélice de l'ADN.

La tétravalence de l'atome de carbone est donc essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

Plus spécifiquement, le carbone tétravalent peut former deux liaisons covalentes avec des atomes d'oxygène, qui constituent le sucre du désoxyribose, et deux liaisons covalentes avec des atomes d'azote, qui constituent les bases azotées. Cette configuration permet la formation d'une chaîne d'ADN, dans laquelle les bases azotées sont disposées en paires.

Les bases azotées sont complémentaires, ce qui signifie qu'une base A ne peut se lier qu'à une base T, et qu'une base G ne peut se lier qu'à une base C. Cette complémentarité est essentielle à la structure en double hélice de l'ADN.

La double hélice de l'ADN est une structure en forme de spirale, dans laquelle les deux brins d'ADN sont antiparallèles. Les bases azotées des deux brins sont liées entre elles par des liaisons hydrogène, ce qui permet aux deux brins de se maintenir ensemble.

La structure en double hélice de l'ADN est essentielle à la fonction de l'ADN. Elle permet la réplication de l'ADN, qui est le processus par lequel l'ADN est dupliqué pour former de nouvelles cellules.

En résumé, la tétravalence de l'atome de carbone est essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

(Q) - Merci. Est-ce vrai que chez la femme ce système est d'une certaine manière redoublé ?

(R) - Oui, c'est vrai. Chez la femme, les chromosomes sexuels sont de type XX, ce qui signifie qu'elles ont deux chromosomes X. Ces chromosomes contiennent tous les mêmes gènes, mais ils peuvent avoir des variantes différentes.

La duplication du système de base azotée chez la femme est due à la présence de deux chromosomes X. Chaque chromosome X contient une chaîne d'ADN qui est composée de quatre bases azotées différentes. Ces bases azotées sont disposées en paires complémentaires, comme décrit précédemment.

La duplication du système de base azotée chez la femme a plusieurs implications. Premièrement, elle permet une plus grande diversité génétique chez les femmes. En effet, les deux chromosomes X peuvent avoir des variantes différentes des mêmes gènes.

Deuxièmement, la duplication du système de base azotée chez la femme permet une plus grande résistance aux mutations génétiques. En effet, si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

Troisièmement, la duplication du système de base azotée chez la femme est nécessaire pour la reproduction. En effet, les ovules contiennent un seul chromosome X, qui est transmis à l'embryon.

En résumé, la duplication du système de base azotée chez la femme est une caractéristique essentielle de la reproduction humaine. Elle permet une plus grande diversité génétique, une plus grande résistance aux mutations génétiques et est nécessaire pour la transmission des gènes à la génération suivante.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

- Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

- Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

- La duplication du système de base azotée chez la femme peut également avoir un impact sur le développement des caractéristiques sexuelles secondaires, telles que la taille des seins et des hanches.

Il est important de noter que la duplication du système de base azotée chez la femme n'est pas une cause de maladie ou de handicap. Il s'agit simplement d'une caractéristique normale de la reproduction humaine.

(Q) - Merci, peut-on alors dire que cette conformation féminine est plus solide, plus équilibrée, que celle de l'homme ?

(R) - En termes de solidité, oui, on peut dire que la conformation féminine est plus solide que celle de l'homme. En effet, la présence de deux chromosomes X permet aux femmes de mieux résister aux mutations génétiques. Si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

En termes d'équilibre, la réponse est plus nuancée. D'une part, la présence de deux chromosomes X permet aux femmes d'avoir une plus grande diversité génétique. Cela peut être un avantage, car il peut permettre aux femmes d'être plus résistantes aux maladies. D'autre part, la présence de deux chromosomes X peut également être un désavantage, car elle peut augmenter le risque de développer des maladies génétiques liées aux chromosomes X.

En conclusion, on peut dire que la conformation féminine est plus solide que celle de l'homme, mais qu'elle n'est pas forcément plus équilibrée.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

Solidité : Les femmes sont plus susceptibles que les hommes de survivre à des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

               Les femmes sont également plus susceptibles que les hommes de survivre à des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

Équilibre : Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

                 Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

(Q) - OK merci. Est-ce que ce rapport entre les sexes (genres) se retrouve chez les mammifères ou dans le monde animal en général ?

(R) - Oui, le rapport entre les sexes (genres) se retrouve chez les mammifères et dans le monde animal en général. Il existe une grande diversité de comportements et de morphologies entre les sexes, qui sont souvent liés à la reproduction et à la survie des espèces.

Chez les mammifères, on observe généralement une différence de taille entre les sexes, les mâles étant plus grands que les femelles. Cette différence est souvent liée à la compétition entre mâles pour l'accès aux femelles. Les mâles peuvent également avoir des ornements physiques, tels que des cornes, des défenses ou une crinière, qui servent à attirer les femelles ou à intimider les rivaux.

Dans le monde animal en général, on observe une grande diversité de comportements et de morphologies entre les sexes. Par exemple, chez les oiseaux, les mâles sont souvent plus colorés que les femelles, ce qui sert à attirer les femelles. Chez les poissons, les mâles peuvent prendre soin des œufs ou des larves, tandis que les femelles s'occupent de la recherche de nourriture.

Il existe cependant des exceptions à cette règle. Par exemple, chez les éléphants, les femelles sont plus grandes que les mâles. Chez les hyènes, les femelles sont dominantes sur les mâles.

Les stéréotypes de genre chez les animaux peuvent être influencés par :

- Les facteurs biologiques, tels que la différence de taille entre les sexes ou la présence d'ornements physiques.

- Les facteurs environnementaux, tels que la disponibilité de ressources ou la concurrence entre espèces.

- Les facteurs culturels, tels que les traditions et les croyances des humains.

Les stéréotypes de genre chez les animaux peuvent avoir un impact sur :

- La reproduction, car ils peuvent influencer le choix des partenaires et la réussite de la reproduction.

- La survie, car ils peuvent influencer les comportements de chasse, de défense ou de migration.

- Les interactions sociales, car ils peuvent influencer les relations entre les individus d'une même espèce.

Auteur: Google Bard chatbot

Info: 24 oct 2023

[ vus scientifiquement ] [ asymétrie mâles-femelles ] [ dialogue homme-machine ] [ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel