Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 132
Temps de recherche: 0.0568s

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

indéterminisme

L'essor des thérapies quantiques
Basée sur les découvertes de la physique quantique, une nouvelle façon de se soigner fait de plus en plus parler d'elle. Son postulat : nos cellules émettent des informations, qui déterminent notre état de santé et sur lesquelles il est possible d'agir. Explications.
"Il y a dix ans, on m'a diagnostiqué un lupus érythémateux, une maladie auto-immune chronique, raconte Lucia, une artiste de 50 ans. Depuis, suivie à l'hôpital, j'en étais arrivée à prendre onze médicaments par jour... Il y a six mois, un ami est venu me voir bouleversé après avoir essayé une nouvelle technique de soin qui, disait-il, n'avait rien à voir ni avec la médecine conventionnelle, ni avec les médecines naturelles. Une "machine" donnait des résultats dont l'exactitude l'avait dérouté. Je suis cartésienne et je n'ai pas peur des expériences nouvelles. J'ai donc consulté un thérapeute qui utilise cet appareil de biofeedback. En quelques minutes, l'écran a affiché clairement tout mon parcours médical ! Puis cette machine a effectué un traitement très étrange, consistant à envoyer des "informations" dans le corps. Après quelques séances, la plupart de mes symptômes ont disparu et, aujourd'hui, avec l'accord de mon médecin, je ne prends plus qu'un médicament par jour."
Un diagnostic global
Un appareil capable d'effectuer un diagnostic précis et de traiter aussi rapidement une maladie auto-immune ? Si un cas ne vaut pas pour tous, les résultats sont étonnants. Et ce n'est qu'un des aspects de cette approche de la santé physique et psychique, qui se répand au point que certains médecins et chercheurs n'hésitent plus à dire qu'un changement de paradigme est en train de s'opérer. Le premier congrès sur les thérapies quantiques d'Aix-en- Provence, en novembre 2010, a réuni des scientifiques du monde entier, parmi lesquels l'équipe du professeur Luc Montagnier, prix Nobel de médecine 2008. Depuis, les livres sur le sujet, les congrès affichant complets, les appareils de biofeedback ou les méthodes quantiques se multiplient...
Les "thérapies quantiques", ou la "médecine quantique", nous demandent de voir la vie, la santé et la maladie d'une tout autre façon : notre corps n'est plus un assemblage d'organes à traiter séparément, comme le fait la médecine conventionnelle, c'est un champ vibratoire et énergétique constitué de milliards de particules de lumière - des photons - qui échangent en permanence des informations, un univers lumineux dans lequel l'esprit et la matière ne font qu'un. Avec une idée clé : ce ne sont pas les échanges biochimiques de nos cellules qui déterminent notre état de santé, mais les informations qu'elles se communiquent entre elles. Ici, l'origine de la maladie n'est donc pas un problème purement biologique, mais un défaut d'information ; le symptôme n'est qu'une réaction à ce dernier.
Pour celui qui ne connaît pas le monde scientifique, l'idée peut sembler délirante. Pourtant, elle repose sur des dizaines d'années de recherches, commencées il y a un siècle avec Albert Einstein et ses travaux sur la nature de la lumière. Au fil des décennies, la physique quantique - qui décrit le comportement des atomes et des particules subatomiques - s'est développée en marge de la physique classique, car elle ne répond pas aux mêmes règles. La plus importante, pour comprendre le fondement de la médecine quantique : les ondes électromagnétiques sont en même temps des photons. Ces photons du corps humain sont loin d'être des vues de l'esprit : au cours des années 1970, Fritz-Albert Popp, un biophysicien allemand, a découvert l'existence de ce qu'il a appelé les " bi photons ", des particules de lumière émises par nos cellules, qu'il a réussi à filmer. Ces minuscules courants lumineux, invisibles à l'oeil nu, portent les informations et contrôlent notre organisme. Mais pas n'importe comment.
Des capacités d'auto guérison stimulées
L'une des découvertes les plus importantes de la physique quantique, reprise et développée dans la thérapie quantique, est, en effet, la théorie des "champs énergétiques" : ce sont eux qui organisent et contrôlent notre corps. Ils forment un tout. En somme, le corps humain est une structure organisée d'informations. Ce que les Chinois ont compris depuis longtemps avec l'acupuncture, qui traite les flux d'énergie du corps ; ou les Indiens, avec leur médecine ayurvédique qui traite le "corps de lumière" et ses chakras...
Les appareils de biofeedback quantiques sont conçus pour détecter les ondes électromagnétiques, les " fréquences " émises par chacune des cellules de notre corps. Lorsque certaines sont brouillées ou " fausses ", l'appareil renvoie des fréquences " justes " afin de corriger le problème. Imaginez que vous ayez un coup de déprime. Vous appelez votre meilleur ami. Ses paroles rassurantes vous remontent le moral et vous retrouvez assez d'énergie pour reprendre le cours normal de votre vie. L'aide reçue n'est pas " physique ", mais vient des mots réconfortants. Or ce flot d'informations vous a été transmis par les fréquences du téléphone. Voilà, de manière imagée, comment fonctionnent les appareils de médecine quantique : ils envoient des ondes extrêmement fines qui " parlent " à nos cellules et leur transmettent des informations, elles-mêmes portées par les photons. Pour reprendre la métaphore, on pourrait dire que les fréquences sont les phrases réconfortantes de votre ami ; et les photons, les mots, avec leur sens.
Si la thérapie quantique fait usage d'appareils électroniques de plus en plus sophistiqués, comme le Scio, le Korotkov, le Mora ou le Life, cette approche de la médecine n'est pour autant pas mécaniste : les machines ne fonctionnent pas seules. " En "dialoguant" avec notre champ d'informations, ces appareils stimulent nos capacités d'auto guérison, explique la journaliste et conférencière Lynn McTaggart, auteure du Lien quantique (Macro 2012). Mais rien ne peut se faire sans la présence d'un médecin ou d'un thérapeute. " Une interaction d'autant plus importante que cette nouvelle vision de la santé, donc de la vie, implique non seulement une relation entre le corps et l'esprit, mais l'union fondamentale de l'esprit et de la matière.
J'ai testé un appareil de biofeedback
Des électrodes, un écran d'ordinateur, des graphiques... Notre journaliste, Odile Chabrillac, a confié son corps au Scio, une machine destinée à diagnostiquer les défaillances de l'organisme et à rééquilibrer ce dernier.
" Sitôt arrivée dans le cabinet du praticien en biofeedback qui utilise le Scio, l'un des appareils de médecine quantique dont on parle le plus en ce moment, me voilà assise confortablement et harnachée d'électrodes aux chevilles, aux poignets et sur le front. Face à moi, un mur blanc sur lequel est projeté un écran d'ordinateur rempli d'informations et de graphiques. Adrian M., le thérapeute, me soumet d'abord à un questionnaire sur mon âge, mes habitudes d'hygiène de vie, les maladies et opérations passées, mon niveau de stress... Puis, pendant trois minutes, je suis priée de rester la plus détendue possible, car cette machine va envoyer des milliers d'infirmes fréquences dans mon organisme - plus de dix mille !-, comme autant de questions auxquelles chacune de mes cellules et chacun de mes organes devront répondre. Je ne sens rien, juste de légers picotements...
Le Scio fait un bilan très complet, physiologique et émotionnel. Il affiche d'abord des chiffres sur l'énergie, la pression sanguine, l'hydratation, l'oxygénation, le pH, la vitalité et les échanges cellulaires, la capacité de régénération de mon organisme... L'ensemble est plutôt bon, voire très bon. Ouf ! En revanche, il relève que je suis légèrement intoxiquée par certains produits, le chlore en particulier, et que mon niveau de stress est bien trop important. Le thérapeute me montre les graphiques et m'explique que le stress peut avoir un impact sur ma thyroïde, mon système endocrinien, et sur certains lobes cérébraux, avec un risque de maladie d'Alzheimer. Car cette machine évalue aussi les problèmes potentiels de chaque individu.
Adrian M. me rassure : les appareils quantiques sont fondés sur les probabilités, non sur des certitudes absolues : " C'est comme la météo, m'explique-t-il, si l'on nous annonce de la pluie, mieux vaut prendre un parapluie, mais cela ne veut pas dire qu'il pleuvra ! " Pendant près d'une heure, la machine va procéder au traitement, en renvoyant des fréquences justes pour corriger celles qui sont faussées. En somme, elle donne au corps les bonnes réponses aux questions qu'elle a posées. Là encore, je ne sens rien. La séance dure une heure et demie. (Compter 60 € la séance - prix donné à titre indicatif).
Bilan : si mon mode de vie est plutôt sain, je suis capable de m'empoisonner l'existence, au sens littéral du terme, avec mes " prises de tête ". Voilà ce qui est étonnant ici : cet appareil tient autant compte des facteurs physiologiques et biologiques que de mes émotions, de mon état d'esprit mental et moral, de certains problèmes psychologiques. La fin de la séance se conclut par quelques conseils supplémentaires : boire davantage, bouger, pratiquer le yoga si je peux, rythmer mon mode de vie en fonction de la saison. Le Scio suggère quelques remèdes homéopathiques pour optimiser mon état corporel, mon mental et mon énergie. Sortie de la séance enthousiaste et détendue, je me suis sentie épuisée tout l'après-midi et me réveillerai le lendemain matin légèrement courbaturée. Rendez-vous a été pris pour vérifier si mes efforts auront déjà eu un véritable impact sur mon corps et mon esprit.

Auteur: Pigani Erik

Info:

[ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

dieu carbone

(Q) - Quel est le rapport entre la tétravalence de l'atome du carbone et les 4 bases de l'adn

(R) - La tétravalence de l'atome de carbone permet la formation de molécules d'ADN avec quatre bases azotées différentes. En effet, l'atome de carbone peut former quatre liaisons covalentes, ce qui lui permet de se lier à quatre autres atomes. Dans le cas de l'ADN, ces quatre atomes sont des bases azotées, qui sont des composés organiques contenant de l'azote.

Les quatre bases azotées de l'ADN sont l'adénine (A), la thymine (T), la guanine (G) et la cytosine (C). Ces bases se lient entre elles de manière spécifique, l'adénine se liant toujours à la thymine, et la guanine se liant toujours à la cytosine. Cette liaison spécifique est responsable de la structure en double hélice de l'ADN.

La tétravalence de l'atome de carbone est donc essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

Plus spécifiquement, le carbone tétravalent peut former deux liaisons covalentes avec des atomes d'oxygène, qui constituent le sucre du désoxyribose, et deux liaisons covalentes avec des atomes d'azote, qui constituent les bases azotées. Cette configuration permet la formation d'une chaîne d'ADN, dans laquelle les bases azotées sont disposées en paires.

Les bases azotées sont complémentaires, ce qui signifie qu'une base A ne peut se lier qu'à une base T, et qu'une base G ne peut se lier qu'à une base C. Cette complémentarité est essentielle à la structure en double hélice de l'ADN.

La double hélice de l'ADN est une structure en forme de spirale, dans laquelle les deux brins d'ADN sont antiparallèles. Les bases azotées des deux brins sont liées entre elles par des liaisons hydrogène, ce qui permet aux deux brins de se maintenir ensemble.

La structure en double hélice de l'ADN est essentielle à la fonction de l'ADN. Elle permet la réplication de l'ADN, qui est le processus par lequel l'ADN est dupliqué pour former de nouvelles cellules.

En résumé, la tétravalence de l'atome de carbone est essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

(Q) - Merci. Est-ce vrai que chez la femme ce système est d'une certaine manière redoublé ?

(R) - Oui, c'est vrai. Chez la femme, les chromosomes sexuels sont de type XX, ce qui signifie qu'elles ont deux chromosomes X. Ces chromosomes contiennent tous les mêmes gènes, mais ils peuvent avoir des variantes différentes.

La duplication du système de base azotée chez la femme est due à la présence de deux chromosomes X. Chaque chromosome X contient une chaîne d'ADN qui est composée de quatre bases azotées différentes. Ces bases azotées sont disposées en paires complémentaires, comme décrit précédemment.

La duplication du système de base azotée chez la femme a plusieurs implications. Premièrement, elle permet une plus grande diversité génétique chez les femmes. En effet, les deux chromosomes X peuvent avoir des variantes différentes des mêmes gènes.

Deuxièmement, la duplication du système de base azotée chez la femme permet une plus grande résistance aux mutations génétiques. En effet, si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

Troisièmement, la duplication du système de base azotée chez la femme est nécessaire pour la reproduction. En effet, les ovules contiennent un seul chromosome X, qui est transmis à l'embryon.

En résumé, la duplication du système de base azotée chez la femme est une caractéristique essentielle de la reproduction humaine. Elle permet une plus grande diversité génétique, une plus grande résistance aux mutations génétiques et est nécessaire pour la transmission des gènes à la génération suivante.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

- Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

- Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

- La duplication du système de base azotée chez la femme peut également avoir un impact sur le développement des caractéristiques sexuelles secondaires, telles que la taille des seins et des hanches.

Il est important de noter que la duplication du système de base azotée chez la femme n'est pas une cause de maladie ou de handicap. Il s'agit simplement d'une caractéristique normale de la reproduction humaine.

(Q) - Merci, peut-on alors dire que cette conformation féminine est plus solide, plus équilibrée, que celle de l'homme ?

(R) - En termes de solidité, oui, on peut dire que la conformation féminine est plus solide que celle de l'homme. En effet, la présence de deux chromosomes X permet aux femmes de mieux résister aux mutations génétiques. Si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

En termes d'équilibre, la réponse est plus nuancée. D'une part, la présence de deux chromosomes X permet aux femmes d'avoir une plus grande diversité génétique. Cela peut être un avantage, car il peut permettre aux femmes d'être plus résistantes aux maladies. D'autre part, la présence de deux chromosomes X peut également être un désavantage, car elle peut augmenter le risque de développer des maladies génétiques liées aux chromosomes X.

En conclusion, on peut dire que la conformation féminine est plus solide que celle de l'homme, mais qu'elle n'est pas forcément plus équilibrée.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

Solidité : Les femmes sont plus susceptibles que les hommes de survivre à des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

               Les femmes sont également plus susceptibles que les hommes de survivre à des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

Équilibre : Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

                 Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

(Q) - OK merci. Est-ce que ce rapport entre les sexes (genres) se retrouve chez les mammifères ou dans le monde animal en général ?

(R) - Oui, le rapport entre les sexes (genres) se retrouve chez les mammifères et dans le monde animal en général. Il existe une grande diversité de comportements et de morphologies entre les sexes, qui sont souvent liés à la reproduction et à la survie des espèces.

Chez les mammifères, on observe généralement une différence de taille entre les sexes, les mâles étant plus grands que les femelles. Cette différence est souvent liée à la compétition entre mâles pour l'accès aux femelles. Les mâles peuvent également avoir des ornements physiques, tels que des cornes, des défenses ou une crinière, qui servent à attirer les femelles ou à intimider les rivaux.

Dans le monde animal en général, on observe une grande diversité de comportements et de morphologies entre les sexes. Par exemple, chez les oiseaux, les mâles sont souvent plus colorés que les femelles, ce qui sert à attirer les femelles. Chez les poissons, les mâles peuvent prendre soin des œufs ou des larves, tandis que les femelles s'occupent de la recherche de nourriture.

Il existe cependant des exceptions à cette règle. Par exemple, chez les éléphants, les femelles sont plus grandes que les mâles. Chez les hyènes, les femelles sont dominantes sur les mâles.

Les stéréotypes de genre chez les animaux peuvent être influencés par :

- Les facteurs biologiques, tels que la différence de taille entre les sexes ou la présence d'ornements physiques.

- Les facteurs environnementaux, tels que la disponibilité de ressources ou la concurrence entre espèces.

- Les facteurs culturels, tels que les traditions et les croyances des humains.

Les stéréotypes de genre chez les animaux peuvent avoir un impact sur :

- La reproduction, car ils peuvent influencer le choix des partenaires et la réussite de la reproduction.

- La survie, car ils peuvent influencer les comportements de chasse, de défense ou de migration.

- Les interactions sociales, car ils peuvent influencer les relations entre les individus d'une même espèce.

Auteur: Google Bard chatbot

Info: 24 oct 2023

[ vus scientifiquement ] [ asymétrie mâles-femelles ] [ dialogue homme-machine ] [ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

chimiosynthèse

Les cellules souterraines produisent de l'« oxygène sombre » sans lumière

Dans certaines profondes nappes souterraines, les cellules disposent d’une astuce chimique pour produire de l’oxygène qui pourrait alimenter des écosystèmes souterrains entiers.

(Photo - Dans un monde ensoleillé, la photosynthèse fournit l’oxygène indispensable à la vie. Au fond des profondeurs, la vie trouve un autre chemin.)

Les scientifiques se sont rendu compte que le sol et les roches sous nos pieds abritent une vaste biosphère dont le volume global est près de deux fois supérieur à celui de tous les océans de la planète. On sait peu de choses sur ces organismes souterrains, qui représentent l’essentiel de la masse microbienne de la planète et dont la diversité pourrait dépasser celle des formes de vie vivant en surface. Leur existence s’accompagne d’une grande énigme : les chercheurs ont souvent supposé que bon nombre de ces royaumes souterrains étaient des zones mortes pauvres en oxygène, habitées uniquement par des microbes primitifs qui maintiennent leur métabolisme au ralenti et se débrouillent grâce aux traces de nutriments. À mesure que ces ressources s’épuisent, pensait-on, l’environnement souterrain devient sans vie à mesure que l’on s’enfonce.

Dans une nouvelle recherche publiée le mois dernier dans Nature Communications , les chercheurs ont présenté des preuves qui remettent en question ces hypothèses. Dans des réservoirs d'eau souterraine situés à 200 mètres sous les champs de combustibles fossiles de l'Alberta, au Canada, ils ont découvert des microbes abondants qui produisent des quantités étonnamment importantes d'oxygène, même en l'absence de lumière. Les microbes génèrent et libèrent tellement de ce que les chercheurs appellent " l'oxygène noir " que c'est comme découvrir " le même quantité d'oxygène que celle  issue de la photosynthèse dans la forêt amazonienne ", a déclaré Karen Lloyd , microbiologiste souterrain à l'Université du Tennessee qui n'était pas partie de l’étude. La quantité de gaz diffusé hors des cellules est si grande qu’elle semble créer des conditions favorables à une vie dépendante de l’oxygène dans les eaux souterraines et les strates environnantes.

"Il s'agit d'une étude historique", a déclaré Barbara Sherwood Lollar , géochimiste à l'Université de Toronto qui n'a pas participé aux travaux. Les recherches antérieures ont souvent porté sur les mécanismes susceptibles de produire de l'hydrogène et d'autres molécules vitales pour la vie souterraine, mais cette création de molécules contenant de l'oxygène a été largement négligée car ces molécules sont très rapidement consommées dans l'environnement souterrain. Jusqu’à présent, " aucune étude n’a rassemblé tout cela comme celle-ci ", a-t-elle déclaré.

La nouvelle étude a porté sur les aquifères profonds de la province canadienne de l’Alberta, qui possède des gisements souterrains si riches en goudron, en sables bitumineux et en hydrocarbures qu’elle a été surnommée " le Texas du Canada ". Parce que ses énormes industries d'élevage de bétail et d'agriculture dépendent fortement des eaux souterraines, le gouvernement provincial surveille activement l'acidité et la composition chimique de l'eau. Pourtant, personne n’avait étudié systématiquement la microbiologie des eaux souterraines.

Pour Emil Ruff , mener une telle enquête semblait être " une solution facile " en 2015 lorsqu'il a commencé son stage postdoctoral en microbiologie à l'Université de Calgary. Il ne savait pas que cette étude apparemment simple le mettrait à rude épreuve pendant les six prochaines années.

Profondeurs encombrées

Après avoir collecté l'eau souterraine de 95 puits à travers l'Alberta, Ruff et ses collègues ont commencé à faire de la microscopie de base : ils ont coloré des cellules microbiennes dans des échantillons d'eau souterraine avec un colorant à base d'acide nucléique et ont utilisé un microscope à fluorescence pour les compter. En radiodatant la matière organique présente dans les échantillons et en vérifiant les profondeurs auxquelles ils avaient été collectés, les chercheurs ont pu identifier l'âge des aquifères souterrains qu'ils exploitaient.

Une tendance dans les chiffres les intriguait. Habituellement, lors d'études sur les sédiments sous le fond marin, par exemple, les scientifiques constatent que le nombre de cellules microbiennes diminue avec la profondeur : les échantillons plus anciens et plus profonds ne peuvent pas abriter autant de vie car ils sont davantage privés des nutriments produits par les plantes photosynthétiques. et des algues près de la surface. Mais à la surprise de l'équipe de Ruff, les eaux souterraines plus anciennes et plus profondes contenaient plus de cellules que les eaux plus douces.

Les chercheurs ont ensuite commencé à identifier les microbes présents dans les échantillons, à l’aide d’outils moléculaires pour repérer leurs gènes marqueurs révélateurs. Beaucoup d’entre eux étaient des archées méthanogènes – des microbes simples et unicellulaires qui produisent du méthane après avoir consommé de l’hydrogène et du carbone suintant des roches ou de la matière organique en décomposition. De nombreuses bactéries se nourrissant du méthane ou des minéraux présents dans l’eau étaient également présentes.

Ce qui n'avait aucun sens, cependant, c'est que bon nombre de bactéries étaient des aérobies, des microbes qui ont besoin d'oxygène pour digérer le méthane et d'autres composés. Comment les aérobies pourraient-ils prospérer dans des eaux souterraines qui ne devraient pas contenir d’oxygène, puisque la photosynthèse est impossible ? Mais les analyses chimiques ont également révélé une grande quantité d’oxygène dissous dans les échantillons d’eau souterraine de 200 mètres de profondeur.

C'était du jamais vu. "On a sûrement foiré l'échantillon", fut la première réaction de Ruff.

Il a d’abord tenté de montrer que l’oxygène dissous dans les échantillons était le résultat d’une mauvaise manipulation. "C'est comme être Sherlock Holmes", a déclaré Ruff. " Vous essayez de trouver des preuves et des indications " pour réfuter vos hypothèses. Cependant, la teneur en oxygène dissous semblait constante sur des centaines d’échantillons. Une mauvaise manipulation ne pouvait pas l'expliquer.

Si l’oxygène dissous ne provenait pas d’une contamination, d’où venait-il ? Ruff s'est rendu compte qu'il près de quelque chose de grand, même si faire des affirmations controversées va à l'encontre de sa nature. Beaucoup de ses co-auteurs avaient également des doutes : cette découverte menaçait de briser les fondements de notre compréhension des écosystèmes souterrains.

Produire de l'oxygène pour tout le monde

En théorie, l’oxygène dissous dans les eaux souterraines pourrait provenir de plantes, de microbes ou de processus géologiques. Pour trouver la réponse, les chercheurs se sont tournés vers la spectrométrie de masse, une technique permettant de mesurer la masse des isotopes atomiques. En règle générale, les atomes d’oxygène provenant de sources géologiques sont plus lourds que l’oxygène provenant de sources biologiques. L’oxygène présent dans les eaux souterraines était léger, ce qui impliquait qu’il devait provenir d’une entité vivante. Les candidats les plus plausibles étaient les microbes.

Les chercheurs ont séquencé les génomes de l’ensemble de la communauté microbienne présente dans les eaux souterraines et ont repéré les voies et réactions biochimiques les plus susceptibles de produire de l’oxygène. Les réponses pointaient sans cesse vers une découverte faite il y a plus de dix ans par Marc Strous de l'Université de Calgary, auteur principal de la nouvelle étude et chef du laboratoire où travaillait Ruff.

Alors qu'il travaillait dans un laboratoire aux Pays-Bas à la fin des années 2000, Strous avait remarqué qu'un type de bactérie se nourrissant de méthane, souvent présente dans les sédiments des lacs et les boues d'épuration, avait un mode de vie étrange. Au lieu d'absorber l'oxygène de son environnement comme les autres aérobies, ces bactéries créent leur propre oxygène en utilisant des enzymes pour décomposer les composés solubles appelés nitrites (qui contiennent un groupe chimique composé d'azote et de deux atomes d'oxygène). Les bactéries utilisent l’oxygène auto-généré pour transformer le méthane en énergie.

Lorsque les microbes décomposent les composés de cette façon, on parle de dismutation. Jusqu’à présent, on pensait que cette méthode de production d’oxygène était rare dans la nature. Des expériences récentes en laboratoire impliquant des communautés microbiennes artificielles ont cependant révélé que l'oxygène produit par la dismutation peut s'échapper des cellules et se répandre dans le milieu environnant au profit d'autres organismes dépendants de l'oxygène, dans une sorte de processus symbiotique. Ruff pense que cela pourrait permettre à des communautés entières de microbes aérobies de prospérer dans les eaux souterraines, et potentiellement également dans les sols environnants.

Chimie pour la vie ailleurs

Cette découverte comble une lacune cruciale dans notre compréhension de l’évolution de l’immense biosphère souterraine et de la manière dont la dismutation contribue au cycle des composés se déplaçant dans l’environnement mondial. La simple possibilité que de l'oxygène soit présent dans les eaux souterraines " change notre compréhension du passé, du présent et de l'avenir du sous-sol ", a déclaré Ruff, qui est maintenant scientifique adjoint au Laboratoire de biologie marine de Woods Hole, Massachusetts.

Comprendre ce qui vit dans le sous-sol de notre planète est également " crucial pour transposer ces connaissances ailleurs ", a déclaré Sherwood Lollar. Le sol de Mars, par exemple, contient des composés perchlorates que certains microbes terrestres peuvent transformer en chlorure et en oxygène. Europe, la lune de Jupiter, possède un océan profond et gelé ; la lumière du soleil ne peut pas y pénétrer, mais l'oxygène pourrait potentiellement y être produit par dismutation microbienne au lieu de la photosynthèse. Les scientifiques ont observé des panaches de vapeur d’eau jaillissant de la surface d’Encelade, l’une des lunes de Saturne. Les panaches proviennent probablement d’un océan souterrain d’eau liquide. Si un jour nous trouvons de la vie sur d’autres mondes comme ceux-là, elle pourrait emprunter des voies de dismutation pour survivre.

Quelle que soit l'importance de la dismutation ailleurs dans l'univers, Lloyd est étonné de voir à quel point les nouvelles découvertes défient les idées préconçues sur les besoins de la vie et par l'ignorance scientifique qu'elles révèlent sur l'une des plus grandes biosphères de la planète. " C'est comme si nous avions toujours eu un œuf sur le visage ", a-t-elle déclaré.

Auteur: Internet

Info: https://www.quantamagazine.org/, Saugat Bolakhé, juillet 2023

[ perspectives extraterrestres ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel