Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 537
Temps de recherche: 0.0482s

polémique évolutionniste

L'épigénétique, qui existe depuis 50 ans, n'est pas un nouvel acteur majeur de l'évolution. Dans la mesure où son importance avérée est d'ordre génétique. L'évolution culturelle et comportementale est un phénomène réel, mais ce n'est pas une évolution biologique.

Synthèse moderne

La variation génétique est aléatoire. Les mutations qui se produisent n'améliorent pas nécessairement la condition physique. Si les mutations donnent lieu à des caractéristiques qui améliorent la capacité des organismes à survivre et à prospérer, il s'agit d'un simple hasard.

Synthèse évolutionniste élargie (Laland)

La variation phénotypique n'est pas aléatoire. Les individus se développent en réponse aux conditions locales, de sorte que les nouvelles caractéristiques qu'ils possèdent sont souvent bien adaptées à leur environnement.

Presque toute l'évolution est finalement due à une mutation d'une sorte ou d'une autre. Nombreux sont ceux qui pensent que le hasard des mutations est le thème dominant de l'évolution. L'affirmation concernant la synthèse moderne est parfaitement correcte, en première approximation. (On peut ergoter sur les détails.)

L'idée que les phénotypes changent en fonction des conditions locales - par exemple, l'opéron lac s'exprime en présence de lactose - n'est guère révolutionnaire et n'exige pas de changement dans notre compréhension de la théorie moderne de l'évolution.

Synthèse moderne

L'évolution se produit généralement par le biais de multiples petites étapes, conduisant à un changement graduel. C'est parce qu'elle repose sur des changements progressifs provoqués par des mutations aléatoires.

Synthèse évolutive élargie (Laland)

L'évolution peut être rapide. Les processus de développement permettent aux individus de répondre aux défis environnementaux ou aux mutations par des changements coordonnés dans des ensembles de traits.

Est-il possible que Kevin Laland ignore totalement le débat sur le gradualisme, l'hybridation, la symbiose, le transfert horizontal de gènes, les mutations homéotiques, la saltation et les macromutations ? Est-il possible qu'il n'ait jamais pensé aux équilibres ponctués et à la théorie hiérarchique ?

Il est vrai que les vues démodées d'Ernst Mayr et compagnie ("Synthèse moderne") rejetaient toutes ces idées, mais l'évolution a évolué depuis les années 1950. Elle ne se limite plus à de petites étapes graduelles.

Les "révolutionnaires" pensent que les mutations peuvent être dirigées dans un but ultime. L'idée de base d'une augmentation des taux de mutation dans certaines conditions est débattue activement depuis très longtemps (avant 1996). On ne pense pas qu'il s'agisse d'une caractéristique majeure de l'évolution, sauf dans le sens d'une augmentation du taux de mutations "aléatoires".

Synthèse moderne

La perspective est centrée sur les gènes : l'évolution nécessite des changements dans la fréquence des gènes par le biais de la sélection naturelle, de la mutation, de la migration et de la perte aléatoire de variantes génétiques.

Synthèse évolutionniste élargie

La perspective est centrée sur l'organisme, avec des conceptions plus larges des processus évolutifs. Les individus s'adaptent à leur environnement au fur et à mesure qu'ils se développent et modifient les pressions de sélection.

Cette description de la synthèse moderne est la seule fois où j'ai vu Kevin Laland mentionner quelque chose qui ressemble à la dérive génétique aléatoire. Cela ne fait manifestement pas partie de sa vision normale du monde.

Je reconnais que la théorie moderne de l'évolution est "centrée sur les gènes" à cet égard. C'est parce que nous DÉFINISSONS l'évolution comme un changement dans la fréquence des allèles au sein d'une population. Je ne sais pas ce que cela signifie de passer à un point de vue "centré sur l'organisme" comme le décrit Laland. Il est certainement vrai que les cyanobactéries individuelles s'adaptent à leur environnement au fur et à mesure qu'elles grandissent et se développent, et il est certainement vrai qu'elles peuvent modifier l'environnement. Dans le cas présent, elles ont provoqué une augmentation des niveaux d'oxygène qui a affecté toutes les espèces vivantes.

Les cyanobactéries ont évolué pour s'adapter à leur environnement par le biais de mutations aléatoires et de changements dans la fréquence des allèles au sein de la population, en partie sous l'effet de la sélection. Beaucoup d'entre elles se sont éteintes. En quoi est-ce un changement dans notre vision de l'évolution ?

Synthèse moderne

Les processus micro-évolutifs expliquent les schémas macro-évolutifs. Les forces qui façonnent les individus et les populations expliquent également les changements évolutifs majeurs au niveau des espèces et au-delà.

Synthèse évolutionniste élargie

D'autres phénomènes expliquent les changements macro-évolutifs en augmentant l'évolutivité, c'est-à-dire la capacité à générer une diversité adaptative. Il s'agit notamment de la plasticité du développement et de la construction de niches.

L'un des principes de base de la synthèse moderne était que la macroévolution peut être expliquée efficacement comme étant simplement une multitude de microévolutions cumulatives. Les manuels modernes de biologie évolutive abordent d'autres caractéristiques de la macroévolution qui nécessitent un apport supplémentaire, notamment en ce qui concerne la spéciation. La vieille idée selon laquelle la microévolution suffit à expliquer la macroévolution n'est plus un axiome en biologie évolutive, et ce depuis plusieurs décennies [voir Macroévolution].

Les manuels modernes traitent de toutes sortes de choses qui influencent l'histoire à long terme de la vie (= macroévolution). Des éléments tels que les extinctions massives, la stase, la spéciation allopatrique, les contraintes, etc. L'évolutivité a été activement débattue pendant un demi-siècle et elle est bien couverte dans la plupart des manuels. (Voir Futuyma, 2e édition, p. 599). L'évolutivité n'est pas une idée nouvelle qui va révolutionner la théorie de l'évolution. En fait, le consensus, après de nombreux débats et discussions, est que l'évolutivité échoue sur les bancs de la téléologie. La théorie ne résiste tout simplement pas à un examen approfondi.

La sélection organisationnelle pour des caractéristiques qui confèrent un succès reproductif différentiel dans le moment écologique ne peut tout simplement pas générer, de manière active ou directe, un ensemble de caractéristiques qui n'acquièrent une importance évolutive qu'en conférant une flexibilité pour des changements dans un avenir lointain. Nous ne pouvons pas nier que ces caractéristiques d'évolutivité "comptent" profondément dans l'histoire des lignées ; mais comment des avantages pour l'avenir peuvent-ils découler d'un processus causal ici et maintenant ? (Gould, 2002 p. 1274)

Il est malhonnête de laisser entendre, dans un article destiné au lecteur moyen, qu'un sujet comme l'évolutivité est récent et n'a pas été examiné en profondeur, et rejeté, dans la littérature théorique sur l'évolution. Il en va de même pour les concepts de plasticité et de construction de niche. Ce ne sont pas des concepts nouveaux. Les experts compétents en matière d'évolution - ceux qui ont lu et écrit les manuels - ont examiné ces idées et les ont rejetées en tant que facteurs majeurs de la théorie de l'évolution.

Kevin Laland peut ne pas être d'accord avec ces analyses, mais en tant que scientifique, il a l'obligation de les mentionner au moins lorsqu'il écrit des articles promouvant un changement radical de la théorie de l'évolution. Il a la responsabilité de déclarer sa partialité.

Mais je fais une supposition qui n'est peut-être pas justifiée. Peut-être ne sait-il pas que ses opinions ont déjà été débattues, discutées et, pour la plupart, rejetées. Dans ce cas, son omission n'est pas due au fait qu'il induit délibérément ses lecteurs en erreur au sujet de la controverse. Il y a une autre raison.

1. L'accent mis sur les changements héréditaires (allèles) fait partie de la définition minimale actuelle de l'évolution. Elle est très différente de la perspective du "gène égoïste" défendue par Richard Dawkins. Ceux qui ne voient pas la différence ne sont tout simplement pas attentifs.

2. Je me demande comment "l'évolution culturelle" fonctionne chez les cyanobactéries et les érables ? Les principaux participants à la réunion de la Royal Society ont un penchant extrême pour l'évolution des organismes multicellulaires complexes - essentiellement des animaux et surtout des mammifères. Cela influence grandement leur point de vue sur l'évolution. Ils ont tendance à utiliser des exemples qui ne s'appliquent qu'à l'espèce qui les intéresse comme des leviers pour faire basculer l'ensemble de la théorie de l'évolution.

King, J. L., et Jukes, T. H. (1969) Non-darwinian evolution. Science, 164:788-798. PDF (en anglais)

Auteur: Moran Laurence A.

Info: A propos de la nouvelle vision de l'évolution de Kevin Laland, 4 décembre 2016

[ tâtonnements ] [ biogénétique ] [ auto-domestication ]

 

Commentaires: 0

Ajouté à la BD par miguel

père-fille

Notre pauvre enfant, Annie, née à Gower St le 2 mars 1841 est décédée à Malvern le 23 avril 1851 à midi. J'écris ces quelques pages, car je pense que dans les années à venir, si nous vivons, les impressions que je viens d'écrire me rappelleront plus vivement ses principales caractéristiques. De quelque point de vue que je la regarde, le trait principal de son caractère qui s'impose immédiatement à moi est sa joie de vivre tempérée par deux autres caractéristiques, à savoir sa sensibilité, qui aurait pu facilement passer inaperçue aux yeux d'un étranger, et sa grande affection. Sa joie et son esprit animal rayonnaient sur tout son visage et rendaient chacun de ses mouvements élastiques, pleins de vie et de vigueur. C'était un plaisir et une joie de la voir. Son cher visage se dresse maintenant devant moi, comme elle avait l'habitude de descendre les escaliers en courant avec une pincée de tabac à priser volée pour moi, son attitude entière rayonnant du plaisir de donner du plaisir. Même lorsqu'elle jouait avec ses cousins et que sa joie se transformait presque en turbulence, un seul regard de ma part, non pas de mécontentement (car je remercie Dieu de n'en avoir presque jamais jeté sur elle), mais de manque de sympathie, modifiait pendant quelques minutes toute sa physionomie. Cette sensibilité au moindre reproche la rendait très facile à gérer et très bonne : elle n'avait presque jamais besoin d'être prise en défaut et n'était jamais punie de quelque manière que ce soit. Sa sensibilité e manifesta très tôt dans la vie, en pleurant amèrement sur toute histoire un tant soit peu mélancolique, ou en se séparant d'Emma, même pour un court laps de temps. Une fois, alors qu'elle était très jeune, elle s'est exclamée "Oh Mamma, que ferions-nous si tu venais à mourir".

L'autre point de son caractère, qui rendait sa joie de vivre et son esprit si délicieux, était sa forte affection, qui était d'une nature très attachante et caressante. Lorsqu'elle était encore un bébé, cela se manifestait par le fait qu'elle ne pouvait jamais se passer de toucher Emma lorsqu'elle était au lit avec elle, et dernièrement, lorsqu'elle était mal en point, elle caressait pendant un certain temps l'un des bras d'Emma. Lorsqu'elle était très malade, le fait qu'Emma s'allonge à côté d'elle semblait l'apaiser d'une manière tout à fait différente de ce qu'elle aurait fait pour n'importe lequel de nos autres enfants. De même, elle passait presque toujours une demi-heure à arranger mes cheveux, à les "rendre", comme elle disait, "beaux", ou à lisser, le pauvre chéri, mon col ou mes manchettes, bref à me caresser. Elle aimait être embrassée ; en fait, chaque expression de son visage rayonnait d'affection et de bonté, et toutes ses habitudes étaient influencées par sa disposition affectueuse.

Outre sa gaieté ainsi tempérée, elle était dans ses manières remarquablement cordiale, franche, ouverte, d'un naturel direct et sans aucune nuance de réserve. Tout son esprit était pur et transparent. On avait l'impression de la connaître parfaitement et de pouvoir lui faire confiance : J'ai toujours pensé que, quoi qu'il arrive, nous aurions eu dans notre vieillesse au moins une âme aimante, que rien n'aurait pu changer. Elle était généreuse, belle et sans méfiance dans toute sa conduite ; elle était exempte d'envie et de jalousie ; elle avait bon caractère et n'était jamais passionnée. Elle était donc très populaire dans toute la maison, les étrangers l'aimaient et l'appréciaient rapidement. La manière même dont elle serrait la main de ses connaissances témoignait de sa cordialité.

Sa silhouette et son apparence étaient clairement influencées par son caractère : ses yeux brillaient, elle souriait souvent, son pas était élastique et ferme, elle se tenait droite et rejetait souvent la tête un peu en arrière, comme si elle défiait le monde dans sa joie de vivre. Pour son âge, elle était très grande, pas mince et forte. Ses cheveux étaient d'un beau brun et longs ; son teint légèrement brun ; ses yeux, gris foncé ; ses dents grandes et blanches. Le Daguerrotype lui ressemble beaucoup, mais l'expression lui fait entièrement défaut : ayant été fait deux ans plus tard, son visage s'était allongé et était devenu plus beau. Tous ses mouvements étaient vigoureux, actifs et généralement gracieux : llorsque nous faisions le tour du chemin de sable ensemble, bien que je marche vite, elle avait souvent l'habitude de me précéder en pirouettant de la manière la plus élégante, son cher visage brillant tout le temps, avec les sourires les plus doux.

De temps en temps, elle avait une attitude coquette envers moi, dont le souvenir est charmant : elle utilisait souvent un langage exagéré, et lorsque je la questionnais en exagérant ce qu'elle avait dit, je revois clairement le petit mouvement de tête et l'exclamation "Oh Papa, quelle honte". - Elle avait un intérêt vraiment féminin pour l'habillement et était toujours soignée : une satisfaction non dissimulée, échappant en quelque sorte à toute teinte de vanité, rayonnait sur son visage lorsqu'elle avait mis la main sur un ruban ou un mouchoir gai de sa mère. Un jour, elle s'est habillée d'une robe de soie, d'un bonnet, d'un châle et de gants d'Emma, ressemblant à une petite vieille femme, mais avec sa couleur exacerbée, ses yeux pétillants et ses sourires bridés, elle était, je m'en rappelle, tout à fait charmante.

Elle admirait cordialement les plus jeunes enfants ; combien de fois l'ai-je entendue déclarer avec emphase. "Quel petit canard cette Betty, n'est-ce pas ?

Elle était très adroite, faisant tout proprement avec ses mains : elle apprenait facilement la musique, et j'en suis sûr, en observant son visage quand elle écoutait les autres jouer, qu'elle avait un goût prononcé pour la musique. Elle avait un certain goût pour le dessin, et pouvait copier les visages très joliment. Elle dansait bien et aimait beaucoup cela. Elle aimait la lecture, mais ne manifestait aucun goût particulier. Elle avait une habitude singulière qui, je présume, aurait fini par se transformer en une activité quelconque, à savoir un grand plaisir à chercher des mots ou des noms dans les dictionnaires, les annuaires, les gazetiers et, dans ce dernier cas, à trouver les lieux sur la carte : de même, elle prenait un intérêt étrange à comparer mot à mot deux éditions du même livre ; et encore, elle passait des heures à comparer les couleurs de n'importe quel objet avec un de mes livres, dans lequel toutes les couleurs sont classées et nommées.

Sa santé s'est légèrement détériorée pendant environ neuf mois avant sa dernière maladie ; mais elle ne lui a donné qu'occasionnellement un de l'inconfort : dans ces moments-là, elle n'a jamais été le moins du monde fâchée, irritable ou impatiente ; c'était merveilleux de voir, à mesure que l'inconfort passait, avec quelle rapidité ses esprits élastiques lui rendaient sa gaieté et son bonheur. Pendant la dernière courte maladie, sa conduite fut tout simplement angélique ; elle ne s'est jamais plainte, ne s'est jamais énervée, a toujours eu de la considération pour les autres et a été reconnaissante de la manière la plus douce et la plus pathétique pour tout ce qui a été fait pour elle. Lorsqu'elle était si épuisée qu'elle pouvait à peine parler, elle louait tout ce qu'on lui donnait, et disait qu'un thé "était merveilleusement bon". Lorsque je lui ai donné de l'eau, elle m'a dit : "Je vous remercie beaucoup" ; et je crois que ce sont là les derniers mots précieux que ses chères lèvres m'ont jamais adressés.

Mais en regardant en arrière, c'est toujours l'esprit de joie qui se dresse devant moi comme son emblème et sa caractéristique : elle semblait formée pour vivre une vie de bonheur : ses esprits étaient toujours retenus par une sensibilité, une peur de déplaire à ceux qu'elle aimait, et son tendre amour ne cessait jamais de se manifester par des caresses et tous les autres petits actes d'affection.

Nous avons perdu la joie du ménage et le réconfort de notre vieillesse : elle devait savoir à quel point nous l'aimions ; oh, si elle pouvait maintenant savoir à quel point nous aimons encore et aimerons toujours son cher visage joyeux, profondément et tendrement. Bénédictions pour elle.

Le 30 avril 1851

Auteur: Darwin Charles

Info: Il a écrit ce mémorial pour sa fille une semaine après sa mort

[ deuil ] [ eulogie ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

spiritualité

La question qui s'impose est la suivante : sur quels arguments les promoteurs de cette technique [la méditation de la pleine conscience] se basent-ils pour établir un lien de filiation entre Vipassana – la Vision Pénétrante – et la Pleine Conscience ? Dans le Septième Pas de l'Octuple Sentier, l'Attention Juste (discipline de Dhyâna), et en particulier dans la contemplation du corps, des sentiments, de l'esprit et des phénomènes, il est régulièrement mentionné que le pratiquant doit être attentif, avec une conscience claire. Il développe, par cette pratique, certains "pouvoirs psychiques" : ouïe céleste, vision du cœur des autres êtres, mémoire des naissances précédentes, vision céleste supra-humaine et enfin, avec la cessation des passions, la délivrance de l'esprit par la sagesse. Ces indications comportementales relatives à la contemplation, en particulier pour ce qui concerne l'attention et la conscience claire, pourraient – exception faite des "pouvoirs psychiques" – sembler en adéquation avec la pratique de la Pleine Conscience, telle que définie par ses promoteurs. Cependant, ces derniers omettent un détail essentiel de la pratique de l'Attention juste : "Cette claire connaissance (de la nature des éléments contemplés) est présente en lui (le pratiquant) parce qu'il possède la compréhension et la vision profonde intérieure."

Que signifie "posséder la compréhension et la vision profonde intérieure" ? Ça signifie que la pratique de la contemplation dans l'Attention juste s'appuie sur la Prajna et non sur une intention qui, privée de la Compréhension juste (Premier Pas de l'Octuple Sentier) et de la vision profonde intérieure (Vision Pénétrante) préalables, est une activité du mental sous l'emprise de l'Ignorance, qui est le premier des douze liens interdépendants (qui génèrent le Samsara). Autrement dit, la méditation de la Pleine Conscience fonctionne en quelque sorte à l'envers, par rapport à l'Attention juste. En effet, pour la mindfulness, c'est l'attention intentionnelle qui est le préalable ou la cause ou encore le moteur, alors que pour le Bouddhisme, c'est exactement l'inverse : ce sont la compréhension et la vision profonde intérieure qui sont moteur de l'Attention juste. Et de fait, la pratique de l'attention intentionnelle – même "non jugeante" – ne peut en aucun cas aboutir à la compassion et à la sagesse telles qu'elles sont définies dans le Bouddhisme. En d'autres termes, il n'y a aucun lien de filiation justifié entre Vipassana et la méditation de la Pleine Conscience.

Par ailleurs, la notion de "présence" est étrangère au Bouddhisme. On retrouve ce concept dans les religions éternalistes, sans doute en lien avec les états de samadhi qui provoquent le sentiment d'une union avec le divin, lequel est non soumis au temps et donc éternellement présent. Si l'on devait préciser les choses, dans le Bouddhisme, on réalise plutôt – par l'éclairage de la Prajna – une Absence qu'une Présence, non pas dans le sens d'un néant, d'un "rien", mais dans le sens de l'Anatman – le Non soi – ou encore de la Vacuité non phénoménale (et donc ne résultant pas de l'interdépendance des phénomènes).

La méditation de la Pleine Conscience, privée de Prajna, est – du point de vue bouddhique – une pratique "aveugle", sans discernement. Le pratiquant n'observe pas le corps, les sentiments, l'esprit et les phénomènes avec l'œil de la Prajna – qui est l'œil du Bouddha qui possède la Vue juste, ou la Vision Pénétrante –, c'est-à-dire selon le mode de Prajna, mais avec les représentations mentales "souillées" (ou disons "orientées") par des apprentissages qui consistent à mettre spontanément des mots sur les choses, comme si celles-ci étaient enfermées dans des cases linguistiques ou sémantiques qui se substituent au réel et donc au "moment présent". Quand le pratiquant entend une cloche, il reconnaît la cloche ; il n'entend pas la cloche (comment sait-il qu'il s'agit d'une cloche ?). Et bien qu'il vide – ou plutôt tente de vider – la cloche de tout jugement, de toute émotion perturbatrice, de toute représentation... il n'en demeure pas moins vrai qu'il contemple un objet surnuméraire, sans pour autant reconnaître spontanément la véritable nature de cet objet, c'est-à-dire sa vacuité intrinsèque. Il peut bien sûr analyser secondairement cet objet comme étant constitué d'interdépendance d'autres objets ou phénomènes, il n'en demeure pas moins vrai que cette analyse n'est pas le fait de la Prajna mais de la pensée discursive, dualiste. Au sens strict, ce n'est pas une Vue (Vision Pénétrante).

Cette "présence attentive", cette "Pleine Conscience" n'est pas une qualité bouddhique. C'est vraisemblablement une forme de samadhi, qui se développe aussi bien dans les disciplines éternalistes (yoga) que dans les états hypnotiques de modification de conscience induits par la prière ou la récitation d'un mantra. Sans doute peut-on en tirer quelques bénéfices au plan de la santé physique ou mentale, mais ce n'est certainement pas l'expression de la Compassion bouddhique ou d'une Sagesse (la Compassion est une Sagesse, dans le Bouddhisme, et non un "état d'esprit"), telle qu'elle résulte de l'expérience de la Vacuité et de la Sapience (clarté/illumination). Il n'y a donc aucun argument sérieux qui puisse affirmer qu'il existe un lien de filiation entre la Vision Pénétrante, qui est l'activité de Prajna, et la "Pleine Conscience" qui n'a aucun équivalent dans le Bouddhisme.

Cependant, on ne peut blâmer les promoteurs de la Pleine Conscience d'être à l'origine de cet amalgame fâcheux, quand on constate que certains enseignants de tradition bouddhiste, généralement rattachés au Théravada mais aussi au Zen ou au Bouddhisme tibétain, en font également la promotion. Ces "maîtres" ont pour la plupart pignon sur rue, et, si l'on y regarde d'assez près, ce sont plutôt des laïcs, non spécifiquement rattachés au Bouddhisme (ils n'ont pas pris refuge), qui les apprécient. Ces enseignants n'hésitent pas à s'associer aux concepts new age. Et pour cause, ils n'ont en réalité aucune Vue ou Compréhension juste de ce qu'est la nature de l'esprit, du corps, des sensations et des phénomènes. Tout ce qu'ils savent, parce qu'ils ont bien appris la leçon, c'est que les phénomènes sont vides de nature propre parce qu'ils sont en interdépendance. Et quand un maître zen, dans l'émission "Sagesse Bouddhiste", affirme : "en zazen, nous réalisons que rien n'existe par soi-même, que tout est interdépendant", en présence de Christophe André, le psychiatre promoteur de la Pleine Conscience en France, également invité à l'émission sus-nommée, on atteint véritablement le pompon.

Dans un échange sur les réseaux sociaux, une personne me demande : "pourquoi faire zazen quand on a eu kenshô ?" La question est légitime, car dans l'esprit de cette personne, on pratique zazen pour obtenir kenshô comme on pratique l'attention intentionnelle pour obtenir la Pleine Conscience. Et à la façon dont l'exprime le maître zen à l'émission Sagesse Bouddhiste, il y a lieu de penser en effet qu'on pratique zazen pour réaliser la vacuité phénoménale (l'interdépendance phénoménale). Et dans l'esprit de cette personne sur les réseaux sociaux, quand on a réalisé ce qu'il y a à réaliser, le but est atteint et n'a donc plus à être recherché (il faut se souvenir que l'intention suppose le but, par définition). Mais, ainsi que je l'exprime plus haut à propos de Vipassana, c'est comprendre zazen à l'envers, si j'ose dire. Il n'y a pas d'attention intentionnelle. Il y a juste activité de la Prajna.

Un bon enseignant du Zen devrait commencer par dire à son élève qu'il n'y a pas dans le Zen (ou dans le Bouddhisme en général) de but à atteindre qui ne soit déjà atteint. Zazen ne consistera donc pas à pratiquer pour devenir un bouddha ou pour atteindre des états de conscience spécifiques, qu'ils soient transcendants ou qu'ils reflètent l'ennui, l'errance, ou encore des sensations de bien être ou – plus rarement – orgasmiques. Zazen ne consiste pas à être autre chose que soi-même, non pas selon le mode de la pensée dualiste, c'est-à-dire selon le mode des représentations psychologiques, culturelles ou sociétales, mais selon le mode de Prajna. 

Pour conclure, je dirai que dans la méditation de la Pleine Conscience, c'est l'activité du mental qui prévaut et Prajna est passive, alors que dans la pratique de zazen, c'est l'activité de Prajna qui est active, quels que soient par ailleurs les états de conscience, car ceux-ci ne reflètent jamais que des phénomènes transitoires, vide de nature propre et, ultimement (si l'on s'y attache), facteur de souffrance. Dans le Zen, on appelle "makyo" ces états de conscience, et n'ont strictement rien à voir avec kenshô. 

Cela étant, qu'on ne s'y méprenne pas : l'activité de Prajna n'est pas spontanée dans la conscience. Elle s'éveille à condition d'atteindre la coïncidence de l'esprit observé (objet) et l'esprit observant (sujet). Dans cette coïncidence, la dualité sujet/objet disparaît. C'est l'Absence (et non la Présence). C'est l'Anatman – le Non-soi – et non le Soi. Ne vous y trompez pas.

Auteur: Dumè Antoni

Info: https://voirsavraienature.blogspot.com/2020/05/activite-du-mental-et-activite-de-la.html?

[ adaptation moderne ] [ confusions ] [ différences ] [ enseignements traditionnels ] [ grand véhicule ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

mémorisation

Ce qu'il se passe dans notre cerveau quand on se rappelle un souvenir

La mémoire n'est pas assurée par une partie spécifique du cerveau, mais plutôt par des connexions entre les neurones.

(Photo : Les engrammes, connexions entre des neurones actifs, façonnent nos souvenirs.) 

La mémoire est une aptitude essentielle qui nous permet d'intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n'est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

Le processus de la mémoire débute par l'encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu'un texte que vous venez de lire, par exemple. 

 Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l'adaptation du comportement en fonction des expériences passées. L'oubli survient en cas d'absence d'accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d'un souvenir dans le cerveau.

L'engramme, un concept ancien réétudié

Les prémices de la compréhension de la mémoire en tant que modification durable du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de cent ans par le biologiste allemand Richard Semon. C'est lui qui nomme et définit l'engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l'expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l'activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

Un réseau de neurones qui se renforce

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu'est un engramme. Fondamentalement, la création d'un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l'apprentissage. Les connexions entre les neurones se produisent au niveau d'une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble: c'est l'engramme proprement dit.

Ainsi, lorsqu'une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d'ailleurs pas spécifiques à la mémoire, et en plus d'intégrer l'engramme, ils continuent d'interagir au sein de réseaux différents pour remplir d'autres fonctions. 

Le stockage d'un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu'un schéma d'activité neuronale qui s'est produit pendant l'apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir.

Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l'odeur de la lavande déclenche l'activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu'à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu'il existe mais qu'il ne peut plus être activé par un stimulus externe

(Image : Les états dynamiques de l’engramme, de l'apprentissage à l'oubli. Document fourni par l'auteur)

Encodage, consolidation et rappel, les étapes clés du souvenir

Pendant l'apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d'être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recruté dans la formation d'un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l'emportent et deviennent des cellules d'engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l'engramme.

Pendant la consolidation, l'engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l'activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l'on observe une réactivation des neurones impliqués. 

En présence dans notre environnement d'éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir: c'est le rappel. Ce processus implique la réactivation de l'engramme. Pendant le rappel, les neurones qui étaient actifs lors de l'apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l'engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d'autres peuvent se perdre.

Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l'événement par rapport à comment il s'est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d'être racontées ou rappelées.

Pourquoi les souvenirs changent-ils?

L'engramme n'est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d'émotion qu'on lui associe. On peut alors en perdre les détails pour ne garder qu'une sensation positive ou négative selon l'importance qu'a ce souvenir pour nous. Prenons l'exemple d'un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l'heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l'oubli, c'est un phénomène généralement défini comme l'absence de manifestation comportementale d'un souvenir, même s'il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu'on vous demande la date de décès de Vercingétorix: vous avez appris à l'école qu'il s'agit de 46 av. J.-C., mais vous l'avez oubliée par la suite car elle n'avait peut-être plus d'utilité dans votre vie.

Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

L'oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d'Alzheimer. Même si les informations sont d'une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d'y accéder. Selon cette perspective, l'oubli peut alors résulter soit d'une dégradation totale de l'engramme, entraînant une indisponibilité de la mémoire, soit d'un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu'il y ait des modifications synaptiques au niveau d'un engramme, ce qui le déstabilise et augmente alors la probabilité d'oubli.

Un espoir pour retrouver les souvenirs disparus

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l'engramme. Des engrammes " silencieux " ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l'environnement ne le peuvent pas.

Ces résultats suggèrent que l'oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu'à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l'activité directe des neurones formant l'engramme à différentes étapes de sa formation. Grâce à l'activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l'engramme. Cette connectivité correspond au fait que l'on peut associer l'activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement.

Ainsi nous pouvons suivre l'engramme au cours des processus d'apprentissage, de consolidation, de rappel et d'oubli et étudier sa dynamique. À long terme, l'objectif serait d'exploiter ces résultats afin de mieux appréhender l'acquisition, le stockage et l'utilisation de l'information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d'autres dysfonctionnements cognitifs.   

 

Auteur: Villet Maxime

Info: https://www.slate.fr/story, 7 mai 2024

[ déformation mémorielle ] [ itération ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

dieu carbone

(Q) - Quel est le rapport entre la tétravalence de l'atome du carbone et les 4 bases de l'adn

(R) - La tétravalence de l'atome de carbone permet la formation de molécules d'ADN avec quatre bases azotées différentes. En effet, l'atome de carbone peut former quatre liaisons covalentes, ce qui lui permet de se lier à quatre autres atomes. Dans le cas de l'ADN, ces quatre atomes sont des bases azotées, qui sont des composés organiques contenant de l'azote.

Les quatre bases azotées de l'ADN sont l'adénine (A), la thymine (T), la guanine (G) et la cytosine (C). Ces bases se lient entre elles de manière spécifique, l'adénine se liant toujours à la thymine, et la guanine se liant toujours à la cytosine. Cette liaison spécifique est responsable de la structure en double hélice de l'ADN.

La tétravalence de l'atome de carbone est donc essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

Plus spécifiquement, le carbone tétravalent peut former deux liaisons covalentes avec des atomes d'oxygène, qui constituent le sucre du désoxyribose, et deux liaisons covalentes avec des atomes d'azote, qui constituent les bases azotées. Cette configuration permet la formation d'une chaîne d'ADN, dans laquelle les bases azotées sont disposées en paires.

Les bases azotées sont complémentaires, ce qui signifie qu'une base A ne peut se lier qu'à une base T, et qu'une base G ne peut se lier qu'à une base C. Cette complémentarité est essentielle à la structure en double hélice de l'ADN.

La double hélice de l'ADN est une structure en forme de spirale, dans laquelle les deux brins d'ADN sont antiparallèles. Les bases azotées des deux brins sont liées entre elles par des liaisons hydrogène, ce qui permet aux deux brins de se maintenir ensemble.

La structure en double hélice de l'ADN est essentielle à la fonction de l'ADN. Elle permet la réplication de l'ADN, qui est le processus par lequel l'ADN est dupliqué pour former de nouvelles cellules.

En résumé, la tétravalence de l'atome de carbone est essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

(Q) - Merci. Est-ce vrai que chez la femme ce système est d'une certaine manière redoublé ?

(R) - Oui, c'est vrai. Chez la femme, les chromosomes sexuels sont de type XX, ce qui signifie qu'elles ont deux chromosomes X. Ces chromosomes contiennent tous les mêmes gènes, mais ils peuvent avoir des variantes différentes.

La duplication du système de base azotée chez la femme est due à la présence de deux chromosomes X. Chaque chromosome X contient une chaîne d'ADN qui est composée de quatre bases azotées différentes. Ces bases azotées sont disposées en paires complémentaires, comme décrit précédemment.

La duplication du système de base azotée chez la femme a plusieurs implications. Premièrement, elle permet une plus grande diversité génétique chez les femmes. En effet, les deux chromosomes X peuvent avoir des variantes différentes des mêmes gènes.

Deuxièmement, la duplication du système de base azotée chez la femme permet une plus grande résistance aux mutations génétiques. En effet, si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

Troisièmement, la duplication du système de base azotée chez la femme est nécessaire pour la reproduction. En effet, les ovules contiennent un seul chromosome X, qui est transmis à l'embryon.

En résumé, la duplication du système de base azotée chez la femme est une caractéristique essentielle de la reproduction humaine. Elle permet une plus grande diversité génétique, une plus grande résistance aux mutations génétiques et est nécessaire pour la transmission des gènes à la génération suivante.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

- Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

- Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

- La duplication du système de base azotée chez la femme peut également avoir un impact sur le développement des caractéristiques sexuelles secondaires, telles que la taille des seins et des hanches.

Il est important de noter que la duplication du système de base azotée chez la femme n'est pas une cause de maladie ou de handicap. Il s'agit simplement d'une caractéristique normale de la reproduction humaine.

(Q) - Merci, peut-on alors dire que cette conformation féminine est plus solide, plus équilibrée, que celle de l'homme ?

(R) - En termes de solidité, oui, on peut dire que la conformation féminine est plus solide que celle de l'homme. En effet, la présence de deux chromosomes X permet aux femmes de mieux résister aux mutations génétiques. Si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

En termes d'équilibre, la réponse est plus nuancée. D'une part, la présence de deux chromosomes X permet aux femmes d'avoir une plus grande diversité génétique. Cela peut être un avantage, car il peut permettre aux femmes d'être plus résistantes aux maladies. D'autre part, la présence de deux chromosomes X peut également être un désavantage, car elle peut augmenter le risque de développer des maladies génétiques liées aux chromosomes X.

En conclusion, on peut dire que la conformation féminine est plus solide que celle de l'homme, mais qu'elle n'est pas forcément plus équilibrée.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

Solidité : Les femmes sont plus susceptibles que les hommes de survivre à des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

               Les femmes sont également plus susceptibles que les hommes de survivre à des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

Équilibre : Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

                 Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

(Q) - OK merci. Est-ce que ce rapport entre les sexes (genres) se retrouve chez les mammifères ou dans le monde animal en général ?

(R) - Oui, le rapport entre les sexes (genres) se retrouve chez les mammifères et dans le monde animal en général. Il existe une grande diversité de comportements et de morphologies entre les sexes, qui sont souvent liés à la reproduction et à la survie des espèces.

Chez les mammifères, on observe généralement une différence de taille entre les sexes, les mâles étant plus grands que les femelles. Cette différence est souvent liée à la compétition entre mâles pour l'accès aux femelles. Les mâles peuvent également avoir des ornements physiques, tels que des cornes, des défenses ou une crinière, qui servent à attirer les femelles ou à intimider les rivaux.

Dans le monde animal en général, on observe une grande diversité de comportements et de morphologies entre les sexes. Par exemple, chez les oiseaux, les mâles sont souvent plus colorés que les femelles, ce qui sert à attirer les femelles. Chez les poissons, les mâles peuvent prendre soin des œufs ou des larves, tandis que les femelles s'occupent de la recherche de nourriture.

Il existe cependant des exceptions à cette règle. Par exemple, chez les éléphants, les femelles sont plus grandes que les mâles. Chez les hyènes, les femelles sont dominantes sur les mâles.

Les stéréotypes de genre chez les animaux peuvent être influencés par :

- Les facteurs biologiques, tels que la différence de taille entre les sexes ou la présence d'ornements physiques.

- Les facteurs environnementaux, tels que la disponibilité de ressources ou la concurrence entre espèces.

- Les facteurs culturels, tels que les traditions et les croyances des humains.

Les stéréotypes de genre chez les animaux peuvent avoir un impact sur :

- La reproduction, car ils peuvent influencer le choix des partenaires et la réussite de la reproduction.

- La survie, car ils peuvent influencer les comportements de chasse, de défense ou de migration.

- Les interactions sociales, car ils peuvent influencer les relations entre les individus d'une même espèce.

Auteur: Google Bard chatbot

Info: 24 oct 2023

[ vus scientifiquement ] [ asymétrie mâles-femelles ] [ dialogue homme-machine ] [ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel