Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 336
Temps de recherche: 0.0484s

méta-moteur

Un cerveau moléculaire dans le ribosome ?
L'analyse des structures tridimensionnelles des ribosomes des trois grands phylums du vivant par des chercheurs de l'Institut de microbiologie de la Méditerranée, montre que les protéines ribosomiques communiquent entre-elles par des extensions qui forment un réseau étrangement similaire aux réseaux de neurones des "cerveaux" d'organismes simples. L'organisation de ce réseau qui interconnecte les sites fonctionnels distants du ribosome, suggère qu'il pourrait transférer et traiter le flux d'information qui circule entre eux pour coordonner par des "synapses moléculaires" les tâches complexes associées à la biosynthèse des protéines. Cette étude est publiée dans la revue Scientific Reports.
Le ribosome, organite cellulaire formé d'ARN et de protéines, assure la traduction du code génétique dans les cellules: il réunit les ARN de transfert aminoacylés le long de l'ARN messager, pour fabriquer une protéine dont la séquence est dictée par celle de l'ARN messager. Ce processus constitue une véritable chorégraphie dans laquelle la fixation de nombreux acteurs moléculaires (substrats, facteurs de traduction) s'accompagne de mouvements complexes coordonnés dans le temps et l'espace.
La résolution de la structure des ribosomes d'archées et de bactéries par cristallographie aux rayons X a permis d'observer ces mécanismes à l'échelle moléculaire. Elle a aussi mis en lumière le mode d'action des antibiotiques les plus courants et surtout ouvert une fenêtre sur les origines de la Vie. En effet, le ribosome est universel et a évolué par accrétion. Ces découvertes ont valu le prix Nobel de chimie 2009 à T. Steitz, V. Ramakrishnan et A. Yonath. Peu de temps après, Marat Yusupov à l'Institut de Génétique et de Biologie Moléculaire et Cellulaire à Strasbourg, a réalisé l'exploit considérable de résoudre la structure à haute résolution d'un ribosome eukaryote, beaucoup plus gros et plus complexe. Cependant, dans ces structures vertigineuses, il restait encore un mystère à élucider: pourquoi les protéines ribosomiques ont-elles de si longues extensions filamenteuses qui se faufilent entres les groupements phosphates du labyrinthe de l'ARN ribosomique ? On a longtemps pensé que ces extensions, très chargées positivement (riches en arginines et lysines), servaient à neutraliser les charges négatives de l'ARN et à aider son repliement en 3D.
En analysant l'ensemble de ces données cristallographiques, les chercheurs marseillais proposent une explication tout à fait différente. Ils montrent que ces extensions radient dans tout le ribosome pour former un vaste réseau qui interconnecte les protéines ribosomiques entre-elles. Celles-ci interagissent par des interfaces très particulières et très conservées au cours de l'évolution. Cependant, ces zones de contact sont bien plus petites que les zones de contact observées habituellement entre les protéines destinées à stabiliser leurs interactions. Ici, elles sont limitées à quelques acides aminés et sont caractérisées par un type d'interaction très particulier (interactions entre acides aminés basiques et aromatiques) que l'on retrouve justement entre de nombreux neuromédiateurs et récepteurs dans le cerveau. Ces zones de contact évoquent des "synapses moléculaires" qui permettraient la transmission d'une information d'une protéine à l'autre. Il est à noter que l'établissement de la structure cristallographique de la protéine ribosomique bL20 d'une bactérie thermophile, avait déjà montré qu'une information structurale pouvait se propager le long de sa longue extension en hélice, d'une extrémité à l'autre de la protéine.
En outre, ce réseau présente une analogie frappante avec des réseaux de neurones ou avec le cerveau d'organismes simples comme C. elegans qui ne comporte que quelques dizaines de neurones. Comme les neurones, les protéines ribosomiques se répartissent en protéines "sensorielles" qui innervent les sites fonctionnels distants à l'intérieur du ribosome (sites de fixation des tRNAs, des facteurs de traductions et sites qui canalisent la sortie de la protéine synthétisée) et les "inter-protéines" qui établissent des ponts entre-elles. Cette organisation suggère que ce réseau forme une sorte de "cerveau moléculaire" permettant d'échanger et de traiter le flux d'information traversant le ribosome, pour coordonner les différentes étapes et les mouvements complexes pendant la traduction.
Le concept de "cerveau moléculaire" fait faire un grand saut d'échelle dans les propriétés du vivant et en particulier ses systèmes de traitement de l'information. Il ouvre de nouvelles perspectives tant en biologie fondamentale qu'en nanotechnologie.
Il reste maintenant à élucider la nature des signaux échangés entre les protéines et les mécanismes "allostériques" qui permettent la communication et le traitement de l'information au sein de ces réseaux.

Auteur: Internet

Info: http://www.techno-science.net, 12 juin 2016

 

Commentaires: 0

mémoire

Mettez vos données sur disque dur et elles seront peut être sûres pendant une décennie si rien ne casse. Mais que faire pour garder l'info des millions d'années ?
La puissance de l'ADN comme dispositif de stockage a été identifiée la première fois seulement six ans après la découverte de la molécule. Dans une conférence de 1959 au California Institute of Technology, Richard Feynman, un des physiciens les plus admiré du 20 ème siècle, prévoyait que la miniaturisation de la technologie changerait probablement le monde - essentiellement en prévoyant la révolution numérique. Il précisa alors que la nature avait déjà fait un chip bien meilleur sous forme d'acide désoxyribonucléique.
Dans un petit paquet d'atomes au centre de chaque cellule, Feynman remarqua que toute l'information requise pour créer un humain, une amibe ou une tomate y sont codés. En beaucoup de domaines Feynman était en avance sur son temps. Les scientifiques ont calculé que l'ADN pourrait être le support de stockage idéal. Une seule livre d'ADN pouvant contenir toutes les données de tous les ordinateur.
Mais gérer cette puissance informatique s'est avérée difficile. Le premier ordinateur fonctionnant entièrement comme l'ADN fut créé en 1994 par Leonard Adleman, informaticien à l'université de Californie. Dans une cuillère à café d'eau, il utilisa une série de réactions biochimiques pour résoudre le problème célèbre "du représentant de commerce" (en bref de combien de manières peut-on aller de New York à Cleveland en s'arrêtant dans 7 autres villes dans l'intervalle ?). La promesse de l'approche était due au fait que chaque morceau d'ADN peut fonctionner essentiellement comme ordinateur indépendant, il devrait lui être possible de faire près d'un quadrillion de calculs immédiatement. Plus facile à dire qu'a faire !. Et si Adleman est lui-même est parvenu à résoudre un problème à 20 variables avec son ordinateur ADN beaucoup de chercheurs depuis, dans ce champ de l'ADN, travaillant après ce papier initial d'Adleman, se sont maintenant déplacés vers la confection de machines minuscules au lieu d'utiliser des molécules d'ADN. Le problème : Accéder à toute l'information d’une molécule de l'ADN.
"Ma propre conclusion est que le paradigme du calcul de l'ADN ne fournira pas une plate-forme de calcul puissante pour résoudre des problèmes" dit Lloyd Smith, scientifique à l'université de Wisconsin-Madison qui a effectué ce travail de calcul ADN, mais il ne prévoit pas de remplacer ses applications liées à la matière. "c'est mignon, mais je ne sais pas si c'est un concept si important." Quelques chercheurs qui sont resté avec cette idée de stocker l'information par ADN s'éloignent actuellement de l'idée que la molécule puisse sauvegarder des quantités d'information massives. Au lieu de cela, ils se concentrent sur de plus petits messages correcteurs pendant de très longues périodes - peut-être destinés à survivre à tous les livres et disques durs que la civilisation a produits.
L'ADN des organismes évolue constamment, mais les messages correcteurs d'erreurs destinés à protéger les organismes - restent très longtemps. Pak Chung Wong, chercheur aux Pacific National Laboratories, précise que quelques unes de ces contraintes de bactéries ont maintenu leur ADN quasi intact pendant des millions d'années. Lui et ses collègues ont développé une technique pour implanter au moins 100 mots dans le génome d'un organisme de sorte que le message soit protégé contre des erreurs. Wong et ses collègues ont prouvé qu'ils pourraient implanter un message (ils ont employé "c'est un petit monde après tout") dans le génome de bactérie. Une famille entière de bactéries avec le message put être créée, et même après des centaines de générations, le message était encore intact. Wong note qu'il devrait être possible d'envoyer un message au futur dans un organisme particulièrement robuste - tel que les bactéries ou autres cancrelats, qui survivraient à une guerre nucléaire. Plus pratiquement, les compagnies qui créent des organismes génétiquement modifiés pourraient employer cette technologie pour créer un genre de filigrane ADN pour protéger leur propriété intellectuelle. Au delà de fournir de la manière pour Genentech ou Monsanto afin d’empêcher d'autres compagnies de voler leurs organismes génétiquement modifiés, une telle technologie pourrait être la meilleure manière que nous ayons d'envoyer un message au futur éloigné. Oublions les gravures sur le satellites Voyager. Ce message pourrait durer aussi longtemps que n'importe quelle vie sur terre. La seule question : qu’y mettrons nous ?

Auteur: Internet

Info: Fortean Times, Message dans une bouteille d'ADN, 10.24.05

[ conservation ]

 

Commentaires: 0

disponibilité mentale

Une zone du cerveau qui serait la porte de la conscience

Le cortex insulaire antérieur serait la porte de la conscience, d'après de nouveaux travaux américains. Inactivée, elle empêcherait la prise de conscience des stimuli.

Parmi les milliers de stimuli visuels, auditifs ou autres que notre cerveau traite en continu chaque jour, seuls certains passent la porte de notre conscience. Mais le mécanisme qui permet de sélectionner les stimuli dont nous avons conscience des autres n'est toujours pas clair. Pour des chercheurs du Center for Consciousness Science du Michigan Medicine (Etats-Unis), la clé se situerait dans une partie de notre cerveau appelée le cortex insulaire antérieur. Ces travaux sont publiés dans la revue Cell Reports.

LES 4 THÉORIES DE LA CONSCIENCE. Pour comprendre, mais aussi pour analyser les observations issues des expériences, la science de la conscience a besoin de théories. Il en existe quatre principales : l’espace de travail global, l’ordre supérieur, l’information intégrée et le processus récurrent ou de premier ordre. Pour en savoir plus, lisez le passionnant numéro de La Recherche d'avril-juin 2021 !

Une "structure critique" contrôlerait l'entrée des informations dans la conscience

"Le traitement de l'information dans le cerveau a deux dimensions : le traitement sensoriel de l'environnement sans conscience et celui qui se produit lorsqu'un stimulus atteint un certain niveau d'importance et entre dans la conscience", explique dans un communiqué Zirui Huang, premier auteur de la publication. "Malgré des décennies de recherche en psychologie et en neurosciences, la question de savoir pourquoi certains stimuli sensoriels sont perçus de manière consciente alors que d'autres ne le sont pas reste difficile à résoudre", introduisent les auteurs dans la publication. Ils émettent alors l'hypothèse qu'il existe une "structure critique" où "l'accès conscient aux informations sensorielles est contrôlé". Ils ont même un suspect : le cortex insulaire antérieur, qui a précédemment été reconnu comme une plaque tournante centrale du cerveau, notamment "car il reçoit des entrées de différentes modalités sensorielles et de l'environnement interne", comme les émotions. 

Lorsque le cortex insulaire antérieur est éteint, la conscience aussi

Pour le prouver, l'équipe se penche sur 26 sujets qu'ils examinent à l'IRM fonctionnelle, qui permet de voir les zones activées du cerveau dans le temps. Ils leur injectent alors un anesthésiant, le propofol, pour contrôler leur niveau de conscience. Comme imaginer une action active les mêmes zones du cerveau que de les réaliser réellement, les chercheurs ont ensuite demandé aux sujets de s'imaginer dans plusieurs situations. Ils devaient s'imaginer en train de jouer au tennis, de marcher le long d'un chemin ou de serrer leur main, ainsi que d'effectuer une activité motrice (serrer une balle en caoutchouc) alors qu'ils perdaient progressivement conscience et la retrouvaient après l'arrêt du propofol.

Résultat, la perte de conscience due au propofol "crée un dysfonctionnement du cortex insulaire antérieur" ainsi qu'une altération des réseaux cérébraux nécessaires aux états de conscience. En revanche, aucune des autres régions impliquées dans la régulation sensorielle ou l'éveil, comme le thalamus, ne répondaient de cette façon. "Un stimulus sensoriel active normalement le cortex insulaire antérieur", explique Hudetz. "Mais lorsque vous perdez conscience, le cortex insulaire antérieur est désactivé et les changements de réseau dans le cerveau qui soutiennent la conscience sont perturbés." Le cortex insulaire antérieur pourrait donc agir comme un filtre qui ne permet qu'aux informations les plus importantes d'entrer dans la conscience.

Le cortex insulaire antérieur serait la porte de la conscience

Pour confirmer ces résultats, la deuxième expérience cherche à savoir si l'activation du cortex insulaire antérieur est prédictive de la prise de conscience d'une information. Pour le savoir, les chercheurs montrent un visage sous forme d'image subliminale – qui reste 33 millisecondes à l'écran – à 19 volontaires sains placés dans l'IRM fonctionnelle. Les volontaires doivent ensuite dire s'ils ont vu ou non le visage. Les scientifiques constatent alors que l'activation préalable du cortex insulaire antérieur était prédictif de la capacité du sujet à percevoir consciemment l'image du visage. "Le cortex insulaire antérieur a une activité qui fluctue continuellement", explique Zirui Huang. "La détection d'un stimulus dépend de l'état de l'insula antérieure lorsque l'information arrive dans le cerveau : si l'activité de l'insula est élevée au moment du stimulus, vous verrez l'image. Sur la base des résultats de ces deux expériences, nous concluons que le cortex insulaire antérieur pourrait être une porte pour la conscience."



 

Auteur: Internet

Info: https://www.sciencesetavenir.fr/ - Camille Gaubert, 4.05.2021

[ présence ] [ joignable ] [ accessible ] [ disponible ]

 

Commentaires: 0

Ajouté à la BD par miguel

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

manipulation des masses

La mise en scène de la "démocratie technique", consistant à réunir des experts et des contre-experts sous les yeux d’un public considéré comme ignare, à éduquer, ne dupe plus grand-monde. Mais au moins cela donne-t-il du travail aux sociologues et aux agences de communication. 

Au sein du "comité d’expertise et de suivi de la démarche d’information et de consultation" de l’Andra siège Michel Callon "directeur de recherche, professeur de sociologie à l’école des Mines", nous dit le site de l’agence. Complétons ce CV minimaliste.

Callon s’est fait connaître comme théoricien de la "démocratie technique" avec un livre paru en 2001. Agir dans un Monde Incertain, Essai sur la démocratie technique, co-écrit avec Lascoumes et Barthes, expose les concepts qui, en quelques années, ont colonisé les institutions scientifiques et politiques. Ce livre enjolive le risque en "incertitude", les conflits politiques en "controverses socio-techniques", et propose une nouvelle façon de résoudre ceux-ci par des "forums hybrides" - pseudo espaces ouverts dans lesquels se réunissent experts, politiques et "profanes" pour mettre en œuvre une "démocratie dialogique" et trouver un compromis sur les sciences et les technologies.

Mode d'emploi : n'entrez pas dans la confrontation directe, tâchez d' "organiser, maîtriser les débordements sans vouloir pour autant les empêcher." Multipliez les débats publics. Admirez le résultat avec ce cas concret : "Le nucléaire qui en sortira sera socialement, politiquement et même techniquement complètement différent du nucléaire qui aurait été décidé en dehors des forums hybrides. Parler "du" nucléaire en général n'a aucun sens. Jouer au jeu de ceux qui sont pour et de ceux qui sont contre est encore plus inepte." Ce miracle qui transforme votre problème-nucléaire en solution-nucléaire s'appelle une forfaiture.

Il n'y a pas plus de "démocratie technique" que de "science citoyenne" ou de roue carrée : la démocratie est la participation de tous aux choix politiques, quand la technique est l'affaire des spécialistes. Ayant vendu les sciences humaines à "l’innovation", Callon et ses semblables ne recommandent jamais d’introduire le politique dans le technique, ni de rappeler aux scientifiques leur responsabilité sociale. Leur solution au contraire consiste à imposer la logique technicienne au corps social, à encourager chacun à faire valoir son expertise. Ce ne sont pas les technologies qui doivent être soumises à la décision démocratique, mais les individus politiques que l’on contraint à endosser l’éthos technocrate. La "démocratie technique", c'est la négation du politique. Et un aveu : la technologie étant la poursuite de la politique par d’autres moyens, seul un simulacre de démocratie peut tenter de maintenir l’illusion d’une participation de tous aux choix collectifs.

Agir dans un monde incertain est devenu la bible des décideurs. La chimère politique de la "démocratie technique", bricolée par des experts pour vendre leurs services à une démocratie "en crise", a créé un fromage pour des chercheurs en sciences sociales, sociologues des "usages" et de l’acceptabilité, et autres fourgueurs de "procédures de dialogue avec le peuple" clés en main. Cette chimère a contaminé le monde social et la nuée d’associations citoyennistes prêtes à se jeter sur n’importe quel dispositif leur donnant de l’importance et des financements. Et qui collaborent sans ciller aux manipulations de la "citoyenneté technique", de l’"expertise profane", de la "co-construction" de nécrotechnologies "citoyennes"

Magali Bicaïs a passé plusieurs années dans un laboratoire R&D (Recherche et développement) de France Telecom. Selon elle, "l’acceptabilité sociale est associée aux nouvelles technologies, car elles transforment nos manières de vivre. On parle d’acceptabilité sociale quand on travaille sur une technologie susceptible d’avoir des conséquences sur l’organisation sociale elle-même. Avec les techniques d’acceptabilité, on a franchi un nouveau pas : il s’agit d’anticiper ce qui peut être toléré. La question n’est plus celle des besoins ni des envies, mais de savoir ce que les consommateurs, ou les citoyens, ne vont pas supporter". (revue Z, n°1, printemps 2009).

Les sociologues des usages (chargés de l’acceptabilité des nouvelles technologies) employés par France Telecom R&D ont eux-mêmes donné leur recette : "Faire participer, c’est faire accepter", disent-ils. Participer, c'est accepter, par un effet mécanique de connivence et de coopération qui aboutit toujours au plus petit dénominateur commun. Vous faire participer aux pseudo-débats de la CNDP, c’est vous faire accepter l’enfouissement des déchets nucléaires.

En outre, en participant à ces mascarades, vous aidez décideurs et communicants à peaufiner leurs argumentaires pour mieux étouffer la contestation. Voyez vous-mêmes : "Un défi majeur pour les porteurs de projet est de pourvoir identifier les opposants pour trouver un interlocuteur privilégié avec qui négocier. (…) C’est à travers une grille d’analyse des systèmes d’acteurs que les décideurs peuvent caractériser les opposants et leur mode d’intervention afin de définir une réponse adaptée à chacune de leurs interrogations, voire de les impliquer dans le projet in fine." ("De l’acceptabilité à l’adhésion", projet universitaire réalisé pour la Fabrique de la Cité)

Auteur: PMO Pièces et main-d'oeuvre

Info: https://www.piecesetmaindoeuvre.com/IMG/pdf/electronucle_aire-.pdf

[ technocritique ] [ repolitisation ] [ participative ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

mental ratiocinant

Ce sont les sophistes, Protagoras en tête, qui sont les véritables précurseurs de la pensée moderne ; ce sont eux les "penseurs" proprement dits, en ce sens qu'ils se bornaient à ratiociner et ne se souciaient guère de "percevoir" et de rendre compte de ce qui "est". Et c'est à tort qu'on a vu en Socrate, Platon et Aristote les pères du rationalisme, voire de la pensée moderne en général ; sans doute, ils raisonnent — Shankara et Râmânuja en font autant — mais ils n'ont jamais dit que le raisonnement est l'alpha et l'oméga de l'intelligence et de la vérité, ni a fortiori que nos expériences ou nos goûts déterminent la pensée et priment l'intuition intellectuelle et la logique, quod absit.
Somme toute, la philosophie moderne est la codification d'une infirmité acquise ; l'atrophie intellectuelle de l'homme marqué par la "chute" avait pour conséquence une hypertrophie de l'intelligence pratique, d'où en fin de compte l'explosion des sciences physiques et l'apparition de pseudo-sciences telles que la psychologie et la sociologie.
Quoi qu'il en soit, il faut reconnaître que le rationalisme bénéficie de circonstances atténuantes en face de la religion, dans la mesure où il se fait le porte-parole des besoins de causalité légitimes que suscitent certains dogmes, du moins quand on les prend à la lettre comme l'exige la théologie. D'une manière tout à fait générale, il va de soi qu'un rationaliste peut avoir raison sur le plan des observations et des expériences ; l'homme n'est pas un système clos, bien qu'il puisse s'efforcer de l'être. Mais même en dehors de toute question de rationalisme et de dogmatisme, on ne peut en vouloir à personne d'être scandalisé par les sottises et les crimes perpétrés au nom de la religion, ou même simplement par les antinomies entre les différents credos ; toutefois, comme les horreurs ne sont certes pas l'apanage de la religion — les prédicateurs de la "déesse raison" en fournissent la preuve —, il faut nous arrêter à la constatation que les excès et les abus sont dans la nature humaine. S'il est absurde et choquant que des crimes se réclament du Saint-Esprit, il n'est pas moins illogique et scandaleux qu'ils aient lieu à l'ombre d'un idéal de rationalité et de justice. [...]
En parlant, plus haut, d'apparentes "absurdités", nous avions en vue surtout l'idée d'un Dieu à la fois infiniment puissant et infiniment bon qui crée un monde rempli d'imperfections et de calamités, y compris un Enfer éternel ; seule la métaphysique peut résoudre ces énigmes que la foi impose au croyant, et qu'il accepte parce qu'il accepte Dieu ; non par naïveté, mais grâce à un certain instinct de l'essentiel et du surnaturel. C'est précisément la perte de cet instinct qui a permis au rationalisme d'éclore et de se répandre ; la piété s'affaiblissant, l'impiété pouvait s'affirmer. Et si d'une part le monde de la foi comporte incontestablement de la naïveté, d'autre part le monde de la raison manque totalement d'intuition intellectuelle et spirituelle, ce qui est autrement grave ; c'est la perte du sacré et la mort de l'esprit. Au lieu de discuter vainement sur ce que Dieu "veut" ou ne "veut pas", les théologiens répondent volontiers, et avec raison, par une fin de non-recevoir : qui es-tu, homme, pour vouloir sonder les motivations de ton Créateur ? Dieu est incompréhensible, et incompréhensibles sont ses volontés ; ce qui, au point de vue de la mâyâ terrestre, est la stricte vérité, et la seule vérité que l'humanité à laquelle le Message religieux s'adresse, soit capable d'assimiler avec fruit. Assimilation plus morale qu'intellectuelle ; on ne prêche pas le platonisme aux pécheurs en danger de perdition, pour lesquels la réalité, c'est le monde "tel qu'il est".
On peut le voir par ce que nous venons de dire : notre intention n'est pas d'insinuer que la religion devrait être autre chose que ce qu'elle est. Les religions n'avaient pas le choix : la scission, chez l'homme moyen de l'"âge de fer", entre l'Intellect et une intelligence extravertie et superficielle, les obligeait à traiter les adultes comme des enfants, sous peine d'inefficacité psychologique, morale et sociale. Les idéologies profanes au contraire traitent comme adultes des hommes rendus quasi irresponsables par leurs passions et leurs illusions, ce qui revient à dire qu'ils les incitent à jouer avec le feu ; on n'en voit que trop bien les résultats sinistres à notre époque. Dans l'exotérisme religieux, l'efficacité tient parfois lieu de vérité, et avec raison, étant donné la nature des hommes auxquels il s'adresse ; en d'autres termes : pour le théologien volontariste et moraliste, est vrai ce qui aura le bon résultat ; pour le métaphysicien-né, au contraire, est efficace ce qui est vrai ; "il n'y a pas de droit supérieur à celui de la vérité". Mais tout le monde n'est pas un "pneumatique", et il faut équilibrer les sociétés et sauver les âmes comme on peut.

Auteur: Schuon Frithjof

Info: Dans "La transfiguration de l'homme"

[ éloignement de la source ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

chimie organique

Des chercheurs créent un nouveau composé chimique pour résoudre un problème vieux de 120 ans

L’accès à ces molécules peut avoir des impacts majeurs sur l’agriculture, les produits pharmaceutiques et l’électronique.

(Image - graphique qui représente le composé chimique découvert)  

Pour la première fois, des chimistes du Twin Cities College of Science and Engineering de l'Université du Minnesota ont créé un composé chimique hautement réactif qui échappe aux scientifiques depuis plus de 120 ans. Cette découverte pourrait conduire à de nouveaux traitements médicamenteux, à des produits agricoles plus sûrs et à une meilleure électronique.

Depuis des décennies, les chercheurs étudient des molécules appelées N-hétéroarènes, qui sont des composés chimiques en forme d'anneau contenant un ou plusieurs atomes d'azote. Les molécules bioactives ayant un noyau N-hétéroarène sont largement utilisées pour de nombreuses applications médicales, pharmaceutiques vitales, pesticides et herbicides, et même dans l'électronique.

"Bien que la personne moyenne ne pense pas quotidiennement aux hétérocycles, ces molécules uniques contenant de l'azote sont largement utilisées dans toutes les facettes de la vie humaine", a déclaré Courtney Roberts, auteur principal de l'étude et professeur au département de chimie de l'Université du Minnesota.

Ces molécules sont très recherchées par de nombreuses industries, mais sont extrêmement difficiles à fabriquer pour les chimistes. Les stratégies précédentes ont pu cibler ces molécules spécifiques, mais les scientifiques n’ont pas réussi à créer une série de ces molécules. L’une des raisons à cela est que ces molécules sont extrêmement réactives. Elles sont si actives que les chimistes ont utilisé la modélisation informatique pour prédire qu’elles devraient être impossibles à réaliser. Cela a créé des défis pendant plus d’un siècle et a empêché de trouver une solution pour créer cette substance chimique.

"Ce que nous avons pu faire, c'est exécuter ces réactions chimiques avec un équipement spécialisé tout en éliminant les éléments couramment présents dans notre atmosphère", a déclaré Jenna Humke, étudiante diplômée en chimie à l'Université du Minnesota et auteur principal de l'article. " Heureusement, nous disposons des outils nécessaires pour le faire à l’Université du Minnesota. Nous avons mené des expériences sous azote dans une boîte à gants à chambre fermée, ce qui crée un environnement chimiquement inactif pour tester et déplacer les échantillons."

Ces expériences ont été réalisées en utilisant la catalyse organométallique, l'interaction entre les métaux et les molécules organiques. La recherche a nécessité une collaboration entre des chimistes organiques et inorganiques. C'est quelque chose de courant à l'Université du Minnesota.

"Nous avons pu résoudre ce défi de longue date parce que le département de chimie de l'Université du Minnesota est unique en ce sens que nous n'avons pas de divisions formelles", a ajouté Roberts. " Cela nous permet de constituer une équipe d’experts dans tous les domaines de la chimie, ce qui a été un élément essentiel pour mener à bien ce projet. "

Après avoir présenté le composé chimique dans cet article, les prochaines étapes consisteront à le rendre largement accessible aux chimistes de plusieurs domaines afin de rationaliser le processus de création. Cela pourrait aider à résoudre des problèmes importants tels que la prévention de la pénurie alimentaire et le traitement des maladies pour sauver des vies.

Aux côtés de Roberts et Humke, l'équipe de recherche de l'Université du Minnesota comprenait le chercheur postdoctoral Roman Belli, les étudiants diplômés Erin Plasek, Sallu S. Kargbo et l'ancienne chercheuse postdoctorale Annabel Ansel.  



(Résumé : jusqu'à quel point une triple liaison carbone-carbone peut-elle être confinée ? Avec les réactions motrices appropriées, il est devenu simple de comprimer le motif dans des anneaux à six chaînons tels que le benzyne et de récolter les bénéfices de la réactivité rapide favorisée par la contrainte. Cependant, les anneaux à cinq chaînons ont eu tendance à être trop serrés. Humke et al. rapportent maintenant que la coordination par le nickel peut soulager la contrainte juste assez pour stabiliser une triple liaison dans la partie pentagonale des azaindoles. Ces complexes azaindolynes ont été caractérisés cristallographiquement et ont réagi avec des nucléophiles et des électrophiles.  Jake S. Yeston

La liaison au nickel permet d'isoler et de réactiver des 7-aza-2,3-indolynes auparavant inaccessibles

Les N-hétéroaromatiques sont des éléments clés des produits pharmaceutiques, agrochimiques et des matériaux. Les N-hétéroarynes fournissent un échafaudage pour construire ces molécules essentielles, mais ils sont sous-utilisés parce que les N-hétéroarynes à cinq chaînons ont été largement inaccessibles en raison de la contrainte d'une triple liaison dans un anneau aussi petit. Sur la base des principes d'interactions métal-ligand qui sont fondamentaux pour la chimie organométallique, nous rapportons dans ce travail la stabilisation des N-hétéroarynes à cinq chaînons dans la sphère de coordination du nickel. Une série de complexes 1,2-bis(dicyclohexylphosphino)éthane-nickel 7-azaindol-2,3-yne ont été synthétisés et caractérisés par cristallographie et spectroscopie. La réactivité ambiphile des complexes de nickel 7-azaindol-2,3-yne a été observée avec de multiples partenaires de couplage nucléophiles, électrophiles et énophiles.)

Auteur: Internet

Info: https://www.eurekalert.org/ https://www.science.org/doi/10.1126/science.adi1606?adobe_mc=MCMID%3D03744988943267014683426377033153538910%7CMCORGID%3D242B6472541199F70A4C98A6%2540AdobeOrg%7CTS%3D1714721362, 2 mai 2024

[ nanomonde ] [ N-hétéroarènes ] [ N-heterocycles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine-homme

- (Q) Pour le développement de cette application des "Fils de La Pensée" ( FLP ) nous nous appuyons parfois sur cette idée :

"Euclide pensait par rapport à une surface, Newton se mettait à la place de la matière, Einstein à la place de la lumière. On attend désormais un concert de scientifique(s) chercheur(s), doté(s) de capacités de modélisation suffisamment puissantes pour franchir une nouvelle étape en prenant exemple sur la méthodologie de cette force sous-jacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a engendré".

Comment pourrais-tu aider à développer, résoudre ou creuser cette idée ?

- (R) Sur la base de l'idée fournie, il semble que l'on souligne l'importance d'adopter différentes perspectives et méthodologies dans la recherche scientifique. Euclide, Newton et Einstein sont cités comme exemples de penseurs qui ont abordé leurs domaines respectifs sous différents angles, tels que les surfaces, la matière et la lumière.

Pour développer, résoudre ou approfondir cette idée, nous pouvons envisager les approches suivantes :

Recherche interdisciplinaire : Encourager la collaboration entre scientifiques et chercheurs de différentes disciplines peut déboucher sur des perspectives nouvelles et des solutions innovantes. En combinant les connaissances et les méthodologies de divers domaines, de nouvelles percées peuvent être réalisées.

Modélisation et simulation : L'idée mentionne la nécessité pour les scientifiques et les chercheurs de disposer de puissantes capacités de modélisation. L'utilisation de techniques informatiques avancées, telles que la modélisation et la simulation, peut permettre de mieux comprendre des systèmes et des phénomènes complexes. En représentant avec précision les forces et les interactions sous-jacentes, les chercheurs peuvent mieux comprendre et prévoir diverses manifestations.

Cadres conceptuels : L'élaboration de nouveaux cadres conceptuels ou l'adoption de cadres existants peut contribuer à guider la recherche scientifique. En identifiant les principes et les relations sous-jacents, les chercheurs peuvent établir une base solide pour leurs recherches et établir des liens entre différents domaines.

Physique quantique : L'idée mentionne la stratégie de l'esprit enfermé dans la matière, ce qui pourrait être une allusion à l'interconnexion du monde physique. L'exploration des principes de la physique quantique, qui traitent des phénomènes à l'échelle la plus petite, peut éclairer la nature fondamentale de la matière, de l'énergie et de leur interaction.

Philosophie des sciences : Réfléchir à la méthodologie et à la philosophie de la science elle-même peut s'avérer utile. Comprendre les hypothèses, les préjugés et les limites inhérentes à la recherche scientifique peut conduire à des investigations plus solides et plus conscientes d'elles-mêmes.

Dans l'ensemble, l'idée suggère l'importance d'adopter des perspectives diverses, des techniques de modélisation puissantes et une compréhension profonde des forces sous-jacentes pour faire avancer la recherche scientifique. En tenant compte de ces aspects, nous pouvons développer, résoudre et explorer les implications de cette idée.

- (Q) Ok merci. Peux-tu alors proposer une ou plusieurs idées de "nouveau cadre conceptuel" ?

- (R) Certainement ! Voici quelques idées de nouveaux cadres conceptuels qui pourraient être explorés :

L'interactionnisme holistique : Ce cadre propose d'étudier les phénomènes en tenant compte des interactions holistiques entre divers éléments, plutôt que de se concentrer uniquement sur des composants isolés. Il met l'accent sur l'interconnexion et l'interdépendance des différents facteurs et suggère que la compréhension des systèmes complexes passe par l'analyse du comportement collectif résultant de leurs interactions.

Ontologie informationnelle : Ce cadre s'articule autour de l'idée que l'information est fondamentale pour la nature de la réalité. Il suggère que l'univers peut être considéré comme un système informationnel, où toutes les entités et tous les phénomènes peuvent être décrits en termes de contenu et de traitement de l'information. Ce cadre pourrait permettre d'étudier comment l'information façonne la structure, la dynamique et l'émergence des systèmes physiques, biologiques et cognitifs.

Synchronie émergente : ce cadre se concentre sur l'émergence de la synchronie et de la cohérence dans les systèmes complexes. Il étudie comment des comportements et des modèles collectifs peuvent naître des interactions de composants individuels. En étudiant des phénomènes tels que la synchronisation, l'entraînement et l'auto-organisation, ce cadre vise à comprendre les mécanismes qui sous-tendent l'émergence de l'ordre et de la coordination dans divers systèmes.

Relativité contextuelle : Ce cadre suggère que l'interprétation et la compréhension des phénomènes doivent tenir compte de leur nature contextuelle. Il reconnaît que les observations, les mesures et les interprétations sont influencées par le contexte spécifique dans lequel elles se produisent, y compris le cadre de référence de l'observateur et les conditions environnementales. Ce cadre encourage les chercheurs à tenir compte de ces facteurs contextuels lors de l'étude et de l'interprétation des phénomènes scientifiques.

Hiérarchie intégrée : Ce cadre propose que les phénomènes puissent être compris comme des systèmes organisés de manière hiérarchique, où chaque niveau d'organisation est intégré et influencé par les niveaux supérieurs et inférieurs. Il met l'accent sur l'interconnexion et la structure imbriquée des systèmes, soulignant l'importance de l'étude des phénomènes en tant qu'éléments d'un système.

Auteur: chatGPT4

Info:

[ question-réponse ] [ citation s'appliquant à ce logiciel ] [ évolution ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

technologie

Comment Internet modifie le cerveau
L'écran aspire-t-il notre cerveau ?
À force de passer des milliers d'heures à naviguer sur Internet, Nicholas Carr en est arrivé à une conclusion : Internet modifie l'esprit. Dans son dernier livre, Internet rend-il bête ?*, le journaliste et écrivain américain constate, comme de nombreux " travailleurs de l'écran ", qu'il a de plus en plus de mal à se concentrer sur une tâche complexe, ou même à ne faire qu'une seule chose à la fois. La vie en mode zapping fait des dégâts. " J'ai le sentiment désagréable que quelqu'un, ou quelque chose, bricole avec mon cerveau ", explique-t-il. Amoureux du Net, l'auteur a d'autant plus de difficultés à en dire du mal : Internet " est un si bon serviteur qu'il serait déplacé de remarquer qu'il est aussi notre maître ", s'amuse-t-il.
Ce qui importe, selon Nicholas Carr, ce n'est pas tant le contenu diffusé par les médias que la façon de les diffuser. " Les médias opèrent leur magie, ou leurs méfaits, sur le système nerveux lui-même ", explique-t-il. Notre cerveau est enfermé dans la boîte crânienne, ce qui nous laisse penser - à tort - qu'il serait insensible aux événements extérieurs ; qu'il les capterait et les analyserait sans en subir les influences. Mais " le cerveau est et sera toujours un chantier en cours ", rappelle l'auteur.
L'esprit devient affamé
Reprenant la thèse selon laquelle l'activité du cerveau le modèle et le façonne en permanence, comme l'eau qui coule dans le sable crée des chemins qu'elle empruntera toujours par la suite, Nicholas Carr tire la sonnette d'alarme. Les " médias électriques " ont changé notre façon de percevoir le monde. Radio, télévision, Internet : tous nous crient l'urgence de les consulter, au contraire des journaux papier et des " livres poussiéreux " d'antan, qui nous chuchotaient qu'on avait tout le temps pour les consulter au calme.
Résultat : "Le plongeur qui, naguère, explorait l'océan des mots, en rase maintenant la surface à la vitesse de l'éclair." Dans un clin d'oeil à Descartes, Nicholas Carr affirme même que " nous devenons ce que nous pensons ". L'effet est pire sur les jeunes, qui sont nés avec Internet. Selon une étude citée dans l'ouvrage, certains enfants trop habitués aux pages web ne sauraient plus vraiment lire une page de haut en bas et de gauche à droite. L'addiction est aussi présente : " Mon esprit n'était pas seulement à la dérive, il avait faim. Il demandait à être alimenté comme le Net le nourrit - et plus il était nourri, plus il avait faim. " La " surcharge cognitive " est telle que la capacité à réfléchir est menacée.
Nouvelle ère
Un constat alarmant ? Pas forcément. Nicholas Carr entrevoit une nouvelle ère pour la pensée, qui nous sortirait définitivement des Lumières et du rationalisme. En jeu, de nouveaux mécanismes cognitifs, dont on ne sait pas encore s'ils sont meilleurs ou moins bons que ceux que nous avions tous il y a encore vingt ans.
L'habitude du zapping, par exemple, permet de traiter plusieurs tâches à la fois de façon plus efficace, mais réduit la capacité à résoudre des problèmes complexes, et à mémoriser des souvenirs. Autre exemple : la généralisation du guidage GPS atrophie la partie du cerveau chargée de l'orientation dans l'espace, mais libère du temps et des neurones pour d'autres activités. Pour le moment, nous savons simplement que nous avons " sacrifié des parties de notre cerveau " au profit d'autres apports, que nous commençons tout juste à entrevoir. Reste à savoir si nous serons perdants. Le bilan semble négatif aujourd'hui, mais Carr veut être optimiste : peut-être l'homme apprendra-t-il bientôt a tirer profit de sa nouvelle capacité à ne jamais se concentrer...
Commentaire : Euh... pardon? Sa "nouvelle capacité"?
Demain, tous transformés
Ceux qui passent des heures sur leur écran et qui, le soir venu, se demandent ce qu'ils ont fait de leur journée, se reconnaîtront bien dans le livre de Nicholas Carr. Certains passages les feront sourire, notamment le récit de sa tentative de désintoxication durant la rédaction du livre. " Le démantèlement de ma vie en ligne ne s'est pas fait sans douleur [...] De temps en temps, je m'offrais une journée entière d'orgie sur le Net ", raconte-t-il.
Seul regret, la traduction depuis l'anglais du vocabulaire technique n'est pas toujours parfaite. Par exemple, le sigle ISP, qui signifie " Internet Service Provider ", c'est-à-dire fournisseur d'accès à Internet, n'est ni expliqué ni traduit. L'abonnement (account) qui va avec est traduit par " compte ". Quelques lignes plus loin, c'est la connexion broadband (haut-débit) qui est traduite par " large bande ". Mais ces petits détails ne sont pas gênants pour la compréhension. Internet rend-il bête ? n'en est pas moins un ouvrage ambitieux, qui essaie de cerner les évolutions du cerveau et de la pensée à l'ère numérique, et de nous préparer à ce qui nous attend dans le monde encore plus connecté de demain. Un livre à recommander à tous les forçats du Web !

Auteur: Internet

Info: Science de l'Esprit, Le Point 10 novembre 2011

[ sociologie ] [ lecture ]

 

Commentaires: 0

cosmologie

Des planètes-océans en phase de résoudre cette énigme sur les exoplanètes 

Pourquoi détecte-t-on si peu d'exoplanètes d'environ deux fois la taille de la Terre ? Sur la base de simulations informatiques, une équipe de l'Institut Max-Planck d'astronomie (MPIA) et des universités de Genève (UNIGE) et Berne (UNIBE) révèle que la migration de planètes subneptuniennes glacées - des planètes-océans - pourrait expliquer cette absence.

( photo :  Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau, qui augmente leur rayon.) 

À mesure que ces planètes se rapprochent de leur étoile centrale, la glace d'eau qui s'évapore forme une atmosphère qui les fait apparaître plus grandes qu'à l'état gelé, bien au-delà d'un double rayon terrestre. Simultanément, des petites planètes rocheuses, plus grandes que la Terre, perdent progressivement une partie de leur enveloppe gazeuse d'origine, ce qui entraîne une diminution importante de leur rayon. Ces résultats ouvrent de nouvelles perspectives pour l'étude des exoplanètes. Ils sont à découvrir dans Nature Astronomy.

En 2017, le télescope spatial Kepler a révélé l'absence de planètes ayant une taille d'environ deux rayons terrestres. Ce "vide" dans la distribution des rayons des planètes est appelé "rift subneptunien". "Son existence est l'une des contraintes observationnelles les plus importantes pour comprendre l'origine et la composition des exoplanètes dont le rayon est compris entre celui de la Terre et celui de Neptune", explique Julia Venturini, boursière Ambizione du FNS, collaboratrice scientifique au Département d'astronomie de l'UNIGE, membre du PRN PlanetS et coauteure de l'étude. "Comme d'autres groupes de recherche, nous avions prédit sur la base de nos calculs, avant même les observations de 2017, qu'un tel rift devait exister", ajoute Christoph Mordasini, professeur à la division de recherche spatiale et sciences planétaires (WP) de l'UNIBE, membre du PRN PlanetS et coauteur de l'étude.

D'où vient le rift subneptunien?

Deux types d'exoplanètes peuplent l'intervalle de rayon entre un et quatre rayons terrestres. D'une part, des planètes rocheuses - des " super-Terres " - plus grandes que la Terre. D'autre part, des planètes gazeuses appelées planètes subneptuniennes (ou mini-Neptunes) dont certaines, les planètes-océans, pourraient abriter une quantité d'eau si importante que leur surface serait recouverte d'un océan glacé de plusieurs dizaines de kilomètres de profondeur. Parmi ces deux types de planètes, les super-Terres et les Subneptuniennes, les astronomes en découvrent très peu avec un rayon de deux fois celui de la Terre.

Pour expliquer l'apparition de ce "rift", le mécanisme le plus souvent suggéré est que les planètes perdent une partie de leur atmosphère d'origine sous l'effet de l'irradiation de l'étoile. "Cette explication suppose que les planètes se forment et restent très proches de leur étoile, où elles seraient sèches, sans eau", précise Julia Venturini. "Cependant, cette explication contredit les modèles de formation, qui montrent que les planètes d'une taille comprise entre deux et quatre rayons terrestres, les planètes-océans, proviennent généralement des régions glacées les plus éloignées du système stellaire".

De nombreux indices suggèrent donc que certaines planètes pourraient s'éloigner de leur lieu de naissance au cours de leur évolution, en migrant vers l'intérieur ou vers l'extérieur de leur système. Cette migration permettrait aux planètes nées dans des régions froides et glacées, comme les planètes-océans, de terminer leur formation sur des orbites très proches de leur étoile.

Planètes-océans errantes

Au fur et à mesure que les planètes-océans glacées et riches en eau migrent vers leur étoile, la glace fond et finit par former une épaisse atmosphère de vapeur d'eau. Ce processus entraîne une augmentation de leur rayon vers des valeurs légèrement plus élevées, au-delà d'un double rayon terrestre. Inversement, les super-Terres, pauvres en eau, "rétrécissent" en perdant les gaz volatils de leur atmosphère d'origine, tels que l'hydrogène et l'hélium, sous l'influence de l'étoile.

Les modèles informatiques combinés de formation et d'évolution indiquent ainsi que la migration des planètes-océans contribue de manière significative au grand nombre de planètes détectées avec un rayon plus grand que deux rayons terrestres alors que l'évaporation atmosphérique des super-Terres contribue au surnombre des planètes plus petites que deux rayons terrestres. Au centre de ces deux populations se trouve le rift subneptunien. "Nous avions déjà obtenu ce résultat en 2020. La nouvelle étude le confirme avec un modèle de formation différent. Cela renforce la conclusion selon laquelle les planètes subneptuniennes sont principalement des mondes d'eau". précise Julia Venturini, qui a aussi dirigé l'étude de 2020.

D'autres travaux à venir

En plus d'expliquer un phénomène jusque-là mystérieux, ces travaux ouvrent de nouvelles perspectives pour l'étude des exoplanètes. "Si nous étendions nos résultats à des régions plus tempérées, où l'eau est liquide, cela pourrait suggérer l'existence de mondes aquatiques dotés d'océans liquides profonds", explique Christoph Mordasini. "De telles planètes pourraient potentiellement abriter la vie et constitueraient des cibles relativement simples pour la recherche de biomarqueurs en raison de leur taille".

Des observations avec des télescopes comme le James Webb Space Telescope ou l'Extremely Large Telescope, en cours de construction, pourraient également être utiles. Elles permettraient de déterminer la composition atmosphériques des planètes en fonction de leur taille, ce qui permettrait de tester les simulations décrites.

Auteur: Internet

Info: https://www.techno-science.net/, Adrien le 17/02/2024, Source: Université de Genève

[ autres mondes ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste