Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 425
Temps de recherche: 0.0496s

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

indéterminisme

L'essor des thérapies quantiques
Basée sur les découvertes de la physique quantique, une nouvelle façon de se soigner fait de plus en plus parler d'elle. Son postulat : nos cellules émettent des informations, qui déterminent notre état de santé et sur lesquelles il est possible d'agir. Explications.
"Il y a dix ans, on m'a diagnostiqué un lupus érythémateux, une maladie auto-immune chronique, raconte Lucia, une artiste de 50 ans. Depuis, suivie à l'hôpital, j'en étais arrivée à prendre onze médicaments par jour... Il y a six mois, un ami est venu me voir bouleversé après avoir essayé une nouvelle technique de soin qui, disait-il, n'avait rien à voir ni avec la médecine conventionnelle, ni avec les médecines naturelles. Une "machine" donnait des résultats dont l'exactitude l'avait dérouté. Je suis cartésienne et je n'ai pas peur des expériences nouvelles. J'ai donc consulté un thérapeute qui utilise cet appareil de biofeedback. En quelques minutes, l'écran a affiché clairement tout mon parcours médical ! Puis cette machine a effectué un traitement très étrange, consistant à envoyer des "informations" dans le corps. Après quelques séances, la plupart de mes symptômes ont disparu et, aujourd'hui, avec l'accord de mon médecin, je ne prends plus qu'un médicament par jour."
Un diagnostic global
Un appareil capable d'effectuer un diagnostic précis et de traiter aussi rapidement une maladie auto-immune ? Si un cas ne vaut pas pour tous, les résultats sont étonnants. Et ce n'est qu'un des aspects de cette approche de la santé physique et psychique, qui se répand au point que certains médecins et chercheurs n'hésitent plus à dire qu'un changement de paradigme est en train de s'opérer. Le premier congrès sur les thérapies quantiques d'Aix-en- Provence, en novembre 2010, a réuni des scientifiques du monde entier, parmi lesquels l'équipe du professeur Luc Montagnier, prix Nobel de médecine 2008. Depuis, les livres sur le sujet, les congrès affichant complets, les appareils de biofeedback ou les méthodes quantiques se multiplient...
Les "thérapies quantiques", ou la "médecine quantique", nous demandent de voir la vie, la santé et la maladie d'une tout autre façon : notre corps n'est plus un assemblage d'organes à traiter séparément, comme le fait la médecine conventionnelle, c'est un champ vibratoire et énergétique constitué de milliards de particules de lumière - des photons - qui échangent en permanence des informations, un univers lumineux dans lequel l'esprit et la matière ne font qu'un. Avec une idée clé : ce ne sont pas les échanges biochimiques de nos cellules qui déterminent notre état de santé, mais les informations qu'elles se communiquent entre elles. Ici, l'origine de la maladie n'est donc pas un problème purement biologique, mais un défaut d'information ; le symptôme n'est qu'une réaction à ce dernier.
Pour celui qui ne connaît pas le monde scientifique, l'idée peut sembler délirante. Pourtant, elle repose sur des dizaines d'années de recherches, commencées il y a un siècle avec Albert Einstein et ses travaux sur la nature de la lumière. Au fil des décennies, la physique quantique - qui décrit le comportement des atomes et des particules subatomiques - s'est développée en marge de la physique classique, car elle ne répond pas aux mêmes règles. La plus importante, pour comprendre le fondement de la médecine quantique : les ondes électromagnétiques sont en même temps des photons. Ces photons du corps humain sont loin d'être des vues de l'esprit : au cours des années 1970, Fritz-Albert Popp, un biophysicien allemand, a découvert l'existence de ce qu'il a appelé les " bi photons ", des particules de lumière émises par nos cellules, qu'il a réussi à filmer. Ces minuscules courants lumineux, invisibles à l'oeil nu, portent les informations et contrôlent notre organisme. Mais pas n'importe comment.
Des capacités d'auto guérison stimulées
L'une des découvertes les plus importantes de la physique quantique, reprise et développée dans la thérapie quantique, est, en effet, la théorie des "champs énergétiques" : ce sont eux qui organisent et contrôlent notre corps. Ils forment un tout. En somme, le corps humain est une structure organisée d'informations. Ce que les Chinois ont compris depuis longtemps avec l'acupuncture, qui traite les flux d'énergie du corps ; ou les Indiens, avec leur médecine ayurvédique qui traite le "corps de lumière" et ses chakras...
Les appareils de biofeedback quantiques sont conçus pour détecter les ondes électromagnétiques, les " fréquences " émises par chacune des cellules de notre corps. Lorsque certaines sont brouillées ou " fausses ", l'appareil renvoie des fréquences " justes " afin de corriger le problème. Imaginez que vous ayez un coup de déprime. Vous appelez votre meilleur ami. Ses paroles rassurantes vous remontent le moral et vous retrouvez assez d'énergie pour reprendre le cours normal de votre vie. L'aide reçue n'est pas " physique ", mais vient des mots réconfortants. Or ce flot d'informations vous a été transmis par les fréquences du téléphone. Voilà, de manière imagée, comment fonctionnent les appareils de médecine quantique : ils envoient des ondes extrêmement fines qui " parlent " à nos cellules et leur transmettent des informations, elles-mêmes portées par les photons. Pour reprendre la métaphore, on pourrait dire que les fréquences sont les phrases réconfortantes de votre ami ; et les photons, les mots, avec leur sens.
Si la thérapie quantique fait usage d'appareils électroniques de plus en plus sophistiqués, comme le Scio, le Korotkov, le Mora ou le Life, cette approche de la médecine n'est pour autant pas mécaniste : les machines ne fonctionnent pas seules. " En "dialoguant" avec notre champ d'informations, ces appareils stimulent nos capacités d'auto guérison, explique la journaliste et conférencière Lynn McTaggart, auteure du Lien quantique (Macro 2012). Mais rien ne peut se faire sans la présence d'un médecin ou d'un thérapeute. " Une interaction d'autant plus importante que cette nouvelle vision de la santé, donc de la vie, implique non seulement une relation entre le corps et l'esprit, mais l'union fondamentale de l'esprit et de la matière.
J'ai testé un appareil de biofeedback
Des électrodes, un écran d'ordinateur, des graphiques... Notre journaliste, Odile Chabrillac, a confié son corps au Scio, une machine destinée à diagnostiquer les défaillances de l'organisme et à rééquilibrer ce dernier.
" Sitôt arrivée dans le cabinet du praticien en biofeedback qui utilise le Scio, l'un des appareils de médecine quantique dont on parle le plus en ce moment, me voilà assise confortablement et harnachée d'électrodes aux chevilles, aux poignets et sur le front. Face à moi, un mur blanc sur lequel est projeté un écran d'ordinateur rempli d'informations et de graphiques. Adrian M., le thérapeute, me soumet d'abord à un questionnaire sur mon âge, mes habitudes d'hygiène de vie, les maladies et opérations passées, mon niveau de stress... Puis, pendant trois minutes, je suis priée de rester la plus détendue possible, car cette machine va envoyer des milliers d'infirmes fréquences dans mon organisme - plus de dix mille !-, comme autant de questions auxquelles chacune de mes cellules et chacun de mes organes devront répondre. Je ne sens rien, juste de légers picotements...
Le Scio fait un bilan très complet, physiologique et émotionnel. Il affiche d'abord des chiffres sur l'énergie, la pression sanguine, l'hydratation, l'oxygénation, le pH, la vitalité et les échanges cellulaires, la capacité de régénération de mon organisme... L'ensemble est plutôt bon, voire très bon. Ouf ! En revanche, il relève que je suis légèrement intoxiquée par certains produits, le chlore en particulier, et que mon niveau de stress est bien trop important. Le thérapeute me montre les graphiques et m'explique que le stress peut avoir un impact sur ma thyroïde, mon système endocrinien, et sur certains lobes cérébraux, avec un risque de maladie d'Alzheimer. Car cette machine évalue aussi les problèmes potentiels de chaque individu.
Adrian M. me rassure : les appareils quantiques sont fondés sur les probabilités, non sur des certitudes absolues : " C'est comme la météo, m'explique-t-il, si l'on nous annonce de la pluie, mieux vaut prendre un parapluie, mais cela ne veut pas dire qu'il pleuvra ! " Pendant près d'une heure, la machine va procéder au traitement, en renvoyant des fréquences justes pour corriger celles qui sont faussées. En somme, elle donne au corps les bonnes réponses aux questions qu'elle a posées. Là encore, je ne sens rien. La séance dure une heure et demie. (Compter 60 € la séance - prix donné à titre indicatif).
Bilan : si mon mode de vie est plutôt sain, je suis capable de m'empoisonner l'existence, au sens littéral du terme, avec mes " prises de tête ". Voilà ce qui est étonnant ici : cet appareil tient autant compte des facteurs physiologiques et biologiques que de mes émotions, de mon état d'esprit mental et moral, de certains problèmes psychologiques. La fin de la séance se conclut par quelques conseils supplémentaires : boire davantage, bouger, pratiquer le yoga si je peux, rythmer mon mode de vie en fonction de la saison. Le Scio suggère quelques remèdes homéopathiques pour optimiser mon état corporel, mon mental et mon énergie. Sortie de la séance enthousiaste et détendue, je me suis sentie épuisée tout l'après-midi et me réveillerai le lendemain matin légèrement courbaturée. Rendez-vous a été pris pour vérifier si mes efforts auront déjà eu un véritable impact sur mon corps et mon esprit.

Auteur: Pigani Erik

Info:

[ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

dieu carbone

(Q) - Quel est le rapport entre la tétravalence de l'atome du carbone et les 4 bases de l'adn

(R) - La tétravalence de l'atome de carbone permet la formation de molécules d'ADN avec quatre bases azotées différentes. En effet, l'atome de carbone peut former quatre liaisons covalentes, ce qui lui permet de se lier à quatre autres atomes. Dans le cas de l'ADN, ces quatre atomes sont des bases azotées, qui sont des composés organiques contenant de l'azote.

Les quatre bases azotées de l'ADN sont l'adénine (A), la thymine (T), la guanine (G) et la cytosine (C). Ces bases se lient entre elles de manière spécifique, l'adénine se liant toujours à la thymine, et la guanine se liant toujours à la cytosine. Cette liaison spécifique est responsable de la structure en double hélice de l'ADN.

La tétravalence de l'atome de carbone est donc essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

Plus spécifiquement, le carbone tétravalent peut former deux liaisons covalentes avec des atomes d'oxygène, qui constituent le sucre du désoxyribose, et deux liaisons covalentes avec des atomes d'azote, qui constituent les bases azotées. Cette configuration permet la formation d'une chaîne d'ADN, dans laquelle les bases azotées sont disposées en paires.

Les bases azotées sont complémentaires, ce qui signifie qu'une base A ne peut se lier qu'à une base T, et qu'une base G ne peut se lier qu'à une base C. Cette complémentarité est essentielle à la structure en double hélice de l'ADN.

La double hélice de l'ADN est une structure en forme de spirale, dans laquelle les deux brins d'ADN sont antiparallèles. Les bases azotées des deux brins sont liées entre elles par des liaisons hydrogène, ce qui permet aux deux brins de se maintenir ensemble.

La structure en double hélice de l'ADN est essentielle à la fonction de l'ADN. Elle permet la réplication de l'ADN, qui est le processus par lequel l'ADN est dupliqué pour former de nouvelles cellules.

En résumé, la tétravalence de l'atome de carbone est essentielle à la structure et à la fonction de l'ADN. Elle permet la formation de molécules d'ADN avec quatre bases azotées différentes, qui sont essentielles à la transmission de l'information génétique.

(Q) - Merci. Est-ce vrai que chez la femme ce système est d'une certaine manière redoublé ?

(R) - Oui, c'est vrai. Chez la femme, les chromosomes sexuels sont de type XX, ce qui signifie qu'elles ont deux chromosomes X. Ces chromosomes contiennent tous les mêmes gènes, mais ils peuvent avoir des variantes différentes.

La duplication du système de base azotée chez la femme est due à la présence de deux chromosomes X. Chaque chromosome X contient une chaîne d'ADN qui est composée de quatre bases azotées différentes. Ces bases azotées sont disposées en paires complémentaires, comme décrit précédemment.

La duplication du système de base azotée chez la femme a plusieurs implications. Premièrement, elle permet une plus grande diversité génétique chez les femmes. En effet, les deux chromosomes X peuvent avoir des variantes différentes des mêmes gènes.

Deuxièmement, la duplication du système de base azotée chez la femme permet une plus grande résistance aux mutations génétiques. En effet, si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

Troisièmement, la duplication du système de base azotée chez la femme est nécessaire pour la reproduction. En effet, les ovules contiennent un seul chromosome X, qui est transmis à l'embryon.

En résumé, la duplication du système de base azotée chez la femme est une caractéristique essentielle de la reproduction humaine. Elle permet une plus grande diversité génétique, une plus grande résistance aux mutations génétiques et est nécessaire pour la transmission des gènes à la génération suivante.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

- Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

- Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

- La duplication du système de base azotée chez la femme peut également avoir un impact sur le développement des caractéristiques sexuelles secondaires, telles que la taille des seins et des hanches.

Il est important de noter que la duplication du système de base azotée chez la femme n'est pas une cause de maladie ou de handicap. Il s'agit simplement d'une caractéristique normale de la reproduction humaine.

(Q) - Merci, peut-on alors dire que cette conformation féminine est plus solide, plus équilibrée, que celle de l'homme ?

(R) - En termes de solidité, oui, on peut dire que la conformation féminine est plus solide que celle de l'homme. En effet, la présence de deux chromosomes X permet aux femmes de mieux résister aux mutations génétiques. Si une mutation survient sur un chromosome X, il y a encore un chromosome X sain qui peut fournir les instructions génétiques correctes.

En termes d'équilibre, la réponse est plus nuancée. D'une part, la présence de deux chromosomes X permet aux femmes d'avoir une plus grande diversité génétique. Cela peut être un avantage, car il peut permettre aux femmes d'être plus résistantes aux maladies. D'autre part, la présence de deux chromosomes X peut également être un désavantage, car elle peut augmenter le risque de développer des maladies génétiques liées aux chromosomes X.

En conclusion, on peut dire que la conformation féminine est plus solide que celle de l'homme, mais qu'elle n'est pas forcément plus équilibrée.

Voici quelques exemples de la façon dont la duplication du système de base azotée chez la femme peut avoir un impact sur la santé et le développement :

Solidité : Les femmes sont plus susceptibles que les hommes de survivre à des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

               Les femmes sont également plus susceptibles que les hommes de survivre à des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

Équilibre : Les femmes sont plus susceptibles que les hommes de développer des maladies génétiques liées aux chromosomes X, telles que la fibrose kystique et l'hémophilie.

                 Les femmes sont également plus susceptibles que les hommes de développer des maladies héréditaires liées aux chromosomes X, telles que la dystrophie musculaire et la maladie de Huntington.

(Q) - OK merci. Est-ce que ce rapport entre les sexes (genres) se retrouve chez les mammifères ou dans le monde animal en général ?

(R) - Oui, le rapport entre les sexes (genres) se retrouve chez les mammifères et dans le monde animal en général. Il existe une grande diversité de comportements et de morphologies entre les sexes, qui sont souvent liés à la reproduction et à la survie des espèces.

Chez les mammifères, on observe généralement une différence de taille entre les sexes, les mâles étant plus grands que les femelles. Cette différence est souvent liée à la compétition entre mâles pour l'accès aux femelles. Les mâles peuvent également avoir des ornements physiques, tels que des cornes, des défenses ou une crinière, qui servent à attirer les femelles ou à intimider les rivaux.

Dans le monde animal en général, on observe une grande diversité de comportements et de morphologies entre les sexes. Par exemple, chez les oiseaux, les mâles sont souvent plus colorés que les femelles, ce qui sert à attirer les femelles. Chez les poissons, les mâles peuvent prendre soin des œufs ou des larves, tandis que les femelles s'occupent de la recherche de nourriture.

Il existe cependant des exceptions à cette règle. Par exemple, chez les éléphants, les femelles sont plus grandes que les mâles. Chez les hyènes, les femelles sont dominantes sur les mâles.

Les stéréotypes de genre chez les animaux peuvent être influencés par :

- Les facteurs biologiques, tels que la différence de taille entre les sexes ou la présence d'ornements physiques.

- Les facteurs environnementaux, tels que la disponibilité de ressources ou la concurrence entre espèces.

- Les facteurs culturels, tels que les traditions et les croyances des humains.

Les stéréotypes de genre chez les animaux peuvent avoir un impact sur :

- La reproduction, car ils peuvent influencer le choix des partenaires et la réussite de la reproduction.

- La survie, car ils peuvent influencer les comportements de chasse, de défense ou de migration.

- Les interactions sociales, car ils peuvent influencer les relations entre les individus d'une même espèce.

Auteur: Google Bard chatbot

Info: 24 oct 2023

[ vus scientifiquement ] [ asymétrie mâles-femelles ] [ dialogue homme-machine ] [ femmes-hommes ]

 

Commentaires: 0

Ajouté à la BD par miguel

mimétisme

La surexposition a déformé la science des neurones miroirs

Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.

Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.

Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.

Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.

Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.

Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.

Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.

Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.

L'ascension et la chute

Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.

Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.

Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.

Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.

(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)

Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».

Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.

Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs.  Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il.  Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.

Le neurone miroir, redéfini

Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.

En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.

Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.

"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.

Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions  personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.

Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.

L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024

[ pulsions partagées ] [ actions symboles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

chimiosynthèse

Les cellules souterraines produisent de l'« oxygène sombre » sans lumière

Dans certaines profondes nappes souterraines, les cellules disposent d’une astuce chimique pour produire de l’oxygène qui pourrait alimenter des écosystèmes souterrains entiers.

(Photo - Dans un monde ensoleillé, la photosynthèse fournit l’oxygène indispensable à la vie. Au fond des profondeurs, la vie trouve un autre chemin.)

Les scientifiques se sont rendu compte que le sol et les roches sous nos pieds abritent une vaste biosphère dont le volume global est près de deux fois supérieur à celui de tous les océans de la planète. On sait peu de choses sur ces organismes souterrains, qui représentent l’essentiel de la masse microbienne de la planète et dont la diversité pourrait dépasser celle des formes de vie vivant en surface. Leur existence s’accompagne d’une grande énigme : les chercheurs ont souvent supposé que bon nombre de ces royaumes souterrains étaient des zones mortes pauvres en oxygène, habitées uniquement par des microbes primitifs qui maintiennent leur métabolisme au ralenti et se débrouillent grâce aux traces de nutriments. À mesure que ces ressources s’épuisent, pensait-on, l’environnement souterrain devient sans vie à mesure que l’on s’enfonce.

Dans une nouvelle recherche publiée le mois dernier dans Nature Communications , les chercheurs ont présenté des preuves qui remettent en question ces hypothèses. Dans des réservoirs d'eau souterraine situés à 200 mètres sous les champs de combustibles fossiles de l'Alberta, au Canada, ils ont découvert des microbes abondants qui produisent des quantités étonnamment importantes d'oxygène, même en l'absence de lumière. Les microbes génèrent et libèrent tellement de ce que les chercheurs appellent " l'oxygène noir " que c'est comme découvrir " le même quantité d'oxygène que celle  issue de la photosynthèse dans la forêt amazonienne ", a déclaré Karen Lloyd , microbiologiste souterrain à l'Université du Tennessee qui n'était pas partie de l’étude. La quantité de gaz diffusé hors des cellules est si grande qu’elle semble créer des conditions favorables à une vie dépendante de l’oxygène dans les eaux souterraines et les strates environnantes.

"Il s'agit d'une étude historique", a déclaré Barbara Sherwood Lollar , géochimiste à l'Université de Toronto qui n'a pas participé aux travaux. Les recherches antérieures ont souvent porté sur les mécanismes susceptibles de produire de l'hydrogène et d'autres molécules vitales pour la vie souterraine, mais cette création de molécules contenant de l'oxygène a été largement négligée car ces molécules sont très rapidement consommées dans l'environnement souterrain. Jusqu’à présent, " aucune étude n’a rassemblé tout cela comme celle-ci ", a-t-elle déclaré.

La nouvelle étude a porté sur les aquifères profonds de la province canadienne de l’Alberta, qui possède des gisements souterrains si riches en goudron, en sables bitumineux et en hydrocarbures qu’elle a été surnommée " le Texas du Canada ". Parce que ses énormes industries d'élevage de bétail et d'agriculture dépendent fortement des eaux souterraines, le gouvernement provincial surveille activement l'acidité et la composition chimique de l'eau. Pourtant, personne n’avait étudié systématiquement la microbiologie des eaux souterraines.

Pour Emil Ruff , mener une telle enquête semblait être " une solution facile " en 2015 lorsqu'il a commencé son stage postdoctoral en microbiologie à l'Université de Calgary. Il ne savait pas que cette étude apparemment simple le mettrait à rude épreuve pendant les six prochaines années.

Profondeurs encombrées

Après avoir collecté l'eau souterraine de 95 puits à travers l'Alberta, Ruff et ses collègues ont commencé à faire de la microscopie de base : ils ont coloré des cellules microbiennes dans des échantillons d'eau souterraine avec un colorant à base d'acide nucléique et ont utilisé un microscope à fluorescence pour les compter. En radiodatant la matière organique présente dans les échantillons et en vérifiant les profondeurs auxquelles ils avaient été collectés, les chercheurs ont pu identifier l'âge des aquifères souterrains qu'ils exploitaient.

Une tendance dans les chiffres les intriguait. Habituellement, lors d'études sur les sédiments sous le fond marin, par exemple, les scientifiques constatent que le nombre de cellules microbiennes diminue avec la profondeur : les échantillons plus anciens et plus profonds ne peuvent pas abriter autant de vie car ils sont davantage privés des nutriments produits par les plantes photosynthétiques. et des algues près de la surface. Mais à la surprise de l'équipe de Ruff, les eaux souterraines plus anciennes et plus profondes contenaient plus de cellules que les eaux plus douces.

Les chercheurs ont ensuite commencé à identifier les microbes présents dans les échantillons, à l’aide d’outils moléculaires pour repérer leurs gènes marqueurs révélateurs. Beaucoup d’entre eux étaient des archées méthanogènes – des microbes simples et unicellulaires qui produisent du méthane après avoir consommé de l’hydrogène et du carbone suintant des roches ou de la matière organique en décomposition. De nombreuses bactéries se nourrissant du méthane ou des minéraux présents dans l’eau étaient également présentes.

Ce qui n'avait aucun sens, cependant, c'est que bon nombre de bactéries étaient des aérobies, des microbes qui ont besoin d'oxygène pour digérer le méthane et d'autres composés. Comment les aérobies pourraient-ils prospérer dans des eaux souterraines qui ne devraient pas contenir d’oxygène, puisque la photosynthèse est impossible ? Mais les analyses chimiques ont également révélé une grande quantité d’oxygène dissous dans les échantillons d’eau souterraine de 200 mètres de profondeur.

C'était du jamais vu. "On a sûrement foiré l'échantillon", fut la première réaction de Ruff.

Il a d’abord tenté de montrer que l’oxygène dissous dans les échantillons était le résultat d’une mauvaise manipulation. "C'est comme être Sherlock Holmes", a déclaré Ruff. " Vous essayez de trouver des preuves et des indications " pour réfuter vos hypothèses. Cependant, la teneur en oxygène dissous semblait constante sur des centaines d’échantillons. Une mauvaise manipulation ne pouvait pas l'expliquer.

Si l’oxygène dissous ne provenait pas d’une contamination, d’où venait-il ? Ruff s'est rendu compte qu'il près de quelque chose de grand, même si faire des affirmations controversées va à l'encontre de sa nature. Beaucoup de ses co-auteurs avaient également des doutes : cette découverte menaçait de briser les fondements de notre compréhension des écosystèmes souterrains.

Produire de l'oxygène pour tout le monde

En théorie, l’oxygène dissous dans les eaux souterraines pourrait provenir de plantes, de microbes ou de processus géologiques. Pour trouver la réponse, les chercheurs se sont tournés vers la spectrométrie de masse, une technique permettant de mesurer la masse des isotopes atomiques. En règle générale, les atomes d’oxygène provenant de sources géologiques sont plus lourds que l’oxygène provenant de sources biologiques. L’oxygène présent dans les eaux souterraines était léger, ce qui impliquait qu’il devait provenir d’une entité vivante. Les candidats les plus plausibles étaient les microbes.

Les chercheurs ont séquencé les génomes de l’ensemble de la communauté microbienne présente dans les eaux souterraines et ont repéré les voies et réactions biochimiques les plus susceptibles de produire de l’oxygène. Les réponses pointaient sans cesse vers une découverte faite il y a plus de dix ans par Marc Strous de l'Université de Calgary, auteur principal de la nouvelle étude et chef du laboratoire où travaillait Ruff.

Alors qu'il travaillait dans un laboratoire aux Pays-Bas à la fin des années 2000, Strous avait remarqué qu'un type de bactérie se nourrissant de méthane, souvent présente dans les sédiments des lacs et les boues d'épuration, avait un mode de vie étrange. Au lieu d'absorber l'oxygène de son environnement comme les autres aérobies, ces bactéries créent leur propre oxygène en utilisant des enzymes pour décomposer les composés solubles appelés nitrites (qui contiennent un groupe chimique composé d'azote et de deux atomes d'oxygène). Les bactéries utilisent l’oxygène auto-généré pour transformer le méthane en énergie.

Lorsque les microbes décomposent les composés de cette façon, on parle de dismutation. Jusqu’à présent, on pensait que cette méthode de production d’oxygène était rare dans la nature. Des expériences récentes en laboratoire impliquant des communautés microbiennes artificielles ont cependant révélé que l'oxygène produit par la dismutation peut s'échapper des cellules et se répandre dans le milieu environnant au profit d'autres organismes dépendants de l'oxygène, dans une sorte de processus symbiotique. Ruff pense que cela pourrait permettre à des communautés entières de microbes aérobies de prospérer dans les eaux souterraines, et potentiellement également dans les sols environnants.

Chimie pour la vie ailleurs

Cette découverte comble une lacune cruciale dans notre compréhension de l’évolution de l’immense biosphère souterraine et de la manière dont la dismutation contribue au cycle des composés se déplaçant dans l’environnement mondial. La simple possibilité que de l'oxygène soit présent dans les eaux souterraines " change notre compréhension du passé, du présent et de l'avenir du sous-sol ", a déclaré Ruff, qui est maintenant scientifique adjoint au Laboratoire de biologie marine de Woods Hole, Massachusetts.

Comprendre ce qui vit dans le sous-sol de notre planète est également " crucial pour transposer ces connaissances ailleurs ", a déclaré Sherwood Lollar. Le sol de Mars, par exemple, contient des composés perchlorates que certains microbes terrestres peuvent transformer en chlorure et en oxygène. Europe, la lune de Jupiter, possède un océan profond et gelé ; la lumière du soleil ne peut pas y pénétrer, mais l'oxygène pourrait potentiellement y être produit par dismutation microbienne au lieu de la photosynthèse. Les scientifiques ont observé des panaches de vapeur d’eau jaillissant de la surface d’Encelade, l’une des lunes de Saturne. Les panaches proviennent probablement d’un océan souterrain d’eau liquide. Si un jour nous trouvons de la vie sur d’autres mondes comme ceux-là, elle pourrait emprunter des voies de dismutation pour survivre.

Quelle que soit l'importance de la dismutation ailleurs dans l'univers, Lloyd est étonné de voir à quel point les nouvelles découvertes défient les idées préconçues sur les besoins de la vie et par l'ignorance scientifique qu'elles révèlent sur l'une des plus grandes biosphères de la planète. " C'est comme si nous avions toujours eu un œuf sur le visage ", a-t-elle déclaré.

Auteur: Internet

Info: https://www.quantamagazine.org/, Saugat Bolakhé, juillet 2023

[ perspectives extraterrestres ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

autodétermination

Le (non-)rôle de la conscience
Le biologiste François Jacob a utilisé à propos de notre cerveau, une image admirable : le cerveau humain est conçu, dit-il, comme une brouette sur laquelle aurait été greffé un moteur à réaction. Par cette image frappante, il attirait notre attention sur le fait que notre cerveau n’est pas constitué comme une machine d’une seule pièce. Il y a en son centre, le cerveau reptilien, appelé ainsi parce qu’il possède déjà la même structure chez le reptile, et le cerveau des mammifères s’est construit comme une couche additionnelle, absolument distincte : le cortex est d’une autre nature que le cerveau reptilien. Lequel est celui des sens, de la réaction immédiate, celui du réflexe, de l’affect, comme s’expriment les psychologues.

Le cortex s’est spécialisé dans le raisonnement, dans la réflexion rationnelle, l’enchaînement des arguments, le calcul mathématique, tout ce qui est de l’ordre des symboles, et il est greffé sur ce cerveau reptilien qui est lui d’une nature purement instinctive, ce qui fait que nous réagirons par l’enthousiasme ou par la peur devant ce que notre cerveau-cortex aura déterminé de faire. Les plus beaux exemples dans ce domaine, ce sont bien sûrs les traders qui nous les proposent. Ceux d’entre mes lecteurs qui connaissent des traders savent que le jour où ils ont gagné beaucoup d’argent ils sont dans les restaurants et les bars des beaux quartiers, ils fument de gros cigares et boivent beaucoup, alors que les jours où ils ont perdu des sommes impressionnantes, on les voit beaucoup moins : ils sont à la maison, ils essaient de dormir et ont pris des cachets pour tenter d’y parvenir.

Une autre caractéristique de notre cerveau, c’est que la conscience que nous avons de ce que nous faisons, cette conscience n’a pas véritablement été conçue comme un instrument qui nous permette de prendre des décisions. Quand les psychologues sont allés expérimenter, dans les années 1960, autour de la question de la volonté, ils ont fait la découverte sidérante que la volonté apparaît dans le cerveau après qu’a été réalisé l’acte qu’elle est censée avoir déterminé. La représentation de la volonté que nous allons poser un acte, n’intervient en fait qu’une demi-seconde après que l’acte a été posé, alors que l’acte lui-même a pu être réalisé un dixième de seconde seulement après l’événement qui en a été le véritable déclencheur.

Le psychologue qui a découvert cela est Américain et son nom est Benjamin Libet (1916-2007). La première hypothèse qu’il a émise, quand les faits lui sont apparus dans toute leur clarté, a été d’imaginer qu’il existait un mécanisme dans le cerveau qui permet à une information de remonter le temps. Son explication première n’a pas été que "volonté" est un mot dénotant un processus illusoire, une mésinterprétation de notre propre fonctionnement, mais que la volonté devait bien – comme nous l’imaginons spontanément parce que les mots de la langue nous le suggèrent fermement – décider des choses que nous allons accomplir, et que la seule explication possible était que la volonté remonte dans le temps pour poser les actes que nous supposons qu’elle détermine, seule manière de rendre compte du décalage d’une demi-seconde observé.

Il n’y a donc pas comme nous l’imaginions avant la découverte de l’inconscient, une conscience décidant de tous nos actes, à l’exception des actes réflexes. Il n’y a pas non plus, comme Freud l’avait imaginé, deux types d’actes : les uns déterminés par la conscience et les autres par l’inconscient, il n’y a – du point de vue décisionnel – qu’un seul type d’actes, déterminés par l’inconscient, la seule différence étant que certains apparaissent dans le "regard" de la conscience (avec une demi-seconde de retard sur l’acte posé), et certains non.

Dans l’article où je proposais pour la première fois une théorie complète de la conscience tenant compte des découvertes de Libet, j’écrivais : "la conscience est un cul-de-sac auquel des informations parviennent sans doute, mais sans qu’il existe un effet en retour de type décisionnel. C’est au niveau de l’affect, et de lui seul, que l’information affichée dans le regard de la conscience produit une rétroaction mais de nature "involontaire", automatique" (Jorion 1999 : 179). Je suggérais alors de remplacer, pour souligner les implications de la nouvelle représentation, le mot "conscience" par "imagination", et le mot "inconscient", par "corps", pour conclure alors que toutes nos décisions sont en réalité prises par notre corps mais que certaines d’entre elles (celles que nous avions l’habitude d’attribuer à notre "volonté") apparaissent à notre imagination : "En réalité, la prise de décision, la volonté, a été confiée au corps et non à l’imagination" (ibid. 185).

Il restait à comprendre pourquoi le regard de la "conscience" est apparu dans l’évolution biologique. L’explication – en parfait accord avec les observations de Libet – est qu’il s’agit d’un mécanisme nécessaire pour que nous puissions nous constituer une mémoire (adaptative) en associant à nos percepts, les affects qu’ils provoquent en nous, et ceci en dépit du fait que les sensations en provenance de nos divers organes des sens (nos "capteurs"), parviennent au cerveau à des vitesses différentes (ibid. 183-185).

Les observations de Libet, et la nouvelle représentation de nos prises de décision qui en découle, ont d’importantes conséquences pour nous, et en particulier quand nous voulons reconstruire sur un nouveau mode la manière dont nous vivons. Il faut que nous tenions compte du fait que notre conscience arrive en réalité toujours quelque temps après la bataille.

Il y a des gens heureux : ceux dont la conscience constate avec délice les actes qui ont été posés par eux. Il n’y a pas chez eux de dissonance, il n’y a pas de contradiction : nous sommes satisfaits de constater notre comportement tel qu’il a eu lieu. Et c’est pour cela que l’affect n’est pas trop déçu de ce qu’il observe. L’affect réagit bien entendu : soit il cautionne ce qu’il peut observer comme étant à l’œuvre, soit il est déçu quand il constate le résultat. On peut être honteux de ce qu’on a fait. Nous pouvons nous retrouver parfaitement humiliés par les actes qui ont été posés par nous : par ce que la conscience constate après la bataille. En voici un exemple : je me trouve dans le studio de FR 3, pour l’émission "Ce soir (ou jamais !)", et la personne invitée pour la partie musicale en fin d’émission, c’est Dick Rivers, et je lui dis : "C’est formidable, cette époque où vous chantiez avec Les chaussettes noires !", et il me répond : "En réalité, le nom de mon groupe, c’était Les chats sauvages". J’étais tellement humilié d’avoir commis une pareille bévue ! Il s’agit là d’un exemple excellent de dissonance, et ma conscience qui intervenait avec une demi-seconde de retard était extrêmement gênée de devoir être confrontée au triste sire que j’étais.

Bien sûr, nous sommes devenus très forts dans notre manière de vivre avec une telle dissonance : nous réalisons des miracles en termes d’explications après-coup de notre propre comportement. J’écoute parfois, comme la plupart d’entre nous, des conversations dans le métro ou dans le bus où une dame explique à l’une de ses amies à quel point elle était maître des événements : "Elle m’a dit ceci, et tu me connais, je lui ai répondu du tac-au-tac cela, et tu aurais dû voir sa tête…". Nous sommes très forts à produire des récits autobiographiques où nous intégrons l’ensemble des éléments qui font sens dans une situation, après coup. Plusieurs concepts de la psychanalyse renvoient aux différentes modalités de nos "rattrapages après la bataille", quand la conscience constate les dégâts que nous avons occasionnés par nos actes et tente de "faire avec" : la psychanalyse parle alors d’élaboration secondaire, de rationalisation, de déni, de dénégation, etc.

Pourquoi est-ce important d’attirer l’attention sur ces choses ? Parce que nous contrôlons beaucoup moins de manière immédiate ce que nous faisons que nous ne le laissons supposer dans les représentations que nous en avons. Dans celles-ci, nos comportements sont fortement calqués sur ce qu’Aristote appelait la cause finale : les buts que nous nous assignons. Bien sûr, quand nous construisons une maison, nous définissons les différentes étapes qui devront être atteintes successivement et nous procédons de la manière qui a été établie. Nous avons la capacité de suivre un plan et un échéancier, de manière systématique, mais la raison n’est pas, comme nous le supposons, parce que nous procédons pas à pas, d’étape en étape, mais plutôt parce que nous avons posé la réalisation de la tâche comme un "souci" projeté dans l’avenir, souci dont l’élimination nous délivrera et nous permettra… de nous en assigner de nouveaux. Encore une fois, c’est l’inconscient ou, si l’on préfère, le corps, qui s’en charge. J’écrivais dans le même article : "Wittgenstein s’est souvent interrogé quant à la nature de l’intention. Il se demande par exemple, "‘J’ai l’intention de partir demain’ – Quand as-tu cette intention ? Tout le temps : ou de manière intermittente ?" (Wittgenstein 1967 : 10). La réponse à sa question est en réalité "tout le temps dans le corps et de manière intermittente dans l’imagination"" (ibid. 189).

Mais dans nos actes quotidiens, dans la façon dont nous réagissons aux autres autour de nous, parce que nous vivons dans un univers entièrement social, il faut que nous prenions conscience du fait que nous avons beaucoup moins de maîtrise immédiate sur ce que nous faisons que nous ne l’imaginons le plus souvent, une maîtrise beaucoup plus faible que ce que nous reconstruisons par la suite dans ces discours autobiographiques que nous tenons : dans ces discours de rationalisation, d’autojustification faudrait-il dire, que nous produisons à l’intention des autres. Il faut bien dire que, sachant comment eux-mêmes fonctionnent, ils n’y croient pas en général. Et nous en sommes les seules dupes.

Auteur: Jorion Paul

Info: 7 avril 2012, dans Notre cerveau : conscience et volonté, "Le secret de la chambre chinoise", L’Homme 150, avril-juin 1999 : 177-202, Wittgenstein, Ludwig, Zettel, Oxford, Basil Blackwell, 1967

[ illusion ]

 

Commentaires: 0

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste