Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 36
Temps de recherche: 0.0617s

nématologie

Ce ver parasite " vole " discrètement les gènes de son hôte 

En explorant ce processus connu sous le nom de " transfert horizontal de gènes ", les scientifiques pourraient en apprendre davantage sur la façon dont les bactéries deviennent résistantes aux médicaments.

Des scientifiques du Centre RIKEN de recherche sur la dynamique des biosystèmes au Japon ont récemment découvert que le parasite connu sous le nom de ver de crin de cheval " vole " les gènes de son hôte afin de le contrôler.

Il s’agit d’un processus connu sous le nom de " transfert horizontal de gènes ", c’est-à-dire lorsque deux génomes partagent des informations génétiques de manière non sexuelle.

L’étude de ce processus pourrait aider les scientifiques à comprendre comment les bactéries développent une résistance aux antibiotiques grâce à un processus similaire.

On nous a tous rappelé l'horreur existentielle des parasites cérébraux grâce aux " fourmis zombie "  , mais la manière exacte dont les parasites du monde réel réalisent ce spectacle de marionnettes biologiques reste un peu mystérieuse. L'un de ces parasites est le ver crin de cheval (​​ Chordodes ) , qui dépend des sauterelles, des grillons, des coléoptères et même des mantes pour sa survie et sa reproduction. Né dans l'eau, ce ver utilise des éphémères pour atteindre la terre ferme, où il attend ensuite d'être consommé par sa proie et se met au travail.

Une fois à l’intérieur d’un hôte, le ver commence à se développer et à manipuler l’insecte. Une fois qu'il est complètement mature, il incite cet hôte à sauter dans l'eau, complétant ainsi son cycle de vie. Le ver de crin de cheval parvient à cette capacité de contrôle mental en utilisant des molécules qui imitent le système nerveux central de l'hôte, mais la manière dont il crée ces molécules reste un mystère depuis un certain temps.

Aujourd'hui, une nouvelle étude du Centre RIKEN pour la recherche sur la dynamique des biosystèmes au Japon a révélé que les vers en crin de cheval utilisent le " transfert horizontal de gènes " – en volant effectivement les gènes d'un insecte – afin de contrôler leurs hôtes. Les résultats ont été récemment publiés dans la revue Current Biology.

Pour trouver cette réponse étrange – et plutôt grossière –, une équipe dirigée par Tappei Mishina a analysé l’expression génétique d’un ver de crin de cheval dans tout le corps avant, pendant et après avoir infecté une mante. L'étude montre que 3 000 gènes étaient exprimés davantage chez le ver lorsqu'il manipulait la mante (et 1 500 autres étaient exprimés moins), alors que l'expression des gènes de la mante restait inchangée.

Une fois qu'ils ont compris que le ver à crins produisait ses propres protéines au cours du processus de manipulation, les scientifiques se sont tournés vers une base de données pour discerner l'origine de ces protéines et ont été confrontés à un phénomène surprenant.

"Il est frappant de constater que de nombreux gènes de vers à crins susceptibles de jouer un rôle important dans la manipulation de leurs hôtes sont très similaires à des gènes de mante, ce qui suggère qu'ils ont été obtenus par transfert horizontal de gènes", a déclaré Mishina dans un communiqué de presse.

Dit simplement le transfert horizontal de gènes est le partage d’informations génétiques de manière non sexuelle entre deux génomes – dans ce cas, entre les génomes d’une mante et d’un ver de crin de cheval. Ce n’est pas un phénomène inconnu des scientifiques, car c’est la principale façon dont les bactéries développent une résistance aux antibiotiques .

Dans le cas du ver crin de cheval, quelque 1 400 gènes correspondaient à ceux des mantes, mais ils étaient complètement absents chez d'autres spécimens de Chordodes qui ne dépendent pas des mantes pour se reproduire. L’étude émet l’hypothèse que ces " gènes de mimétisme " ont probablement été acquis au cours de multiples événements de transfert et que les gènes affectant la neuromodulation, l’attraction vers la lumière et les rythmes circadiens étaient particulièrement utiles pour contrôler l’hôte.

En étudiant ce couple parasitaire, Mishina et d’autres scientifiques pourraient en apprendre davantage sur le transfert horizontal de gènes multicellulaires, le fonctionnement interne de cette partie non sexuelle de l’évolution et les mécanismes qui rendent les bactéries résistantes à nos médicaments les plus avancés.

Il est temps pour le parasite de donner un peu en retour

Auteur: Internet

Info: https://www.popularmechanics.com/ Darren Orf, 18 oct 2023

[ copie latérale ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

société de surveillance

Dans les sociétés développées du début du XXIe siècle, un individu un tant soit peu “intégré” laisse tout au long de ses journées des traces de son activité dans des dizaines d’ordinateurs.

Des bornes électroniques enregistrent son passage dans les stations de métro, à bord des bus ou aux péages autoroutiers – un simple clic depuis sa voiture, et voici que la barrière se lève, que son compte bancaire est automatiquement débité. Ça roule. Toutes les antennes relais près desquelles il passe avec son téléphone portable s’en souviendront aussi. Les ordinateurs qu’il utilise gardent en mémoire l’ensemble des sites Internet qu’il visite et, symétriquement, tous ces sites retiennent l’adresse IP de la machine depuis laquelle il était connecté (à moins qu’il prenne des dispositions particulières pour brouiller les pistes). Qui plus est, bon nombre de ces sites lui demandent une foule de renseignements personnels qu’ils utilisent ou revendent. Sans parler de la mise à nu que demande (et permet) la fréquentation de sites de “rencontres” ou de “réseaux sociaux”…

S’il est salarié d’une entreprise ou d’une administration, une partie essentielle de son activité peut être recensée et évaluée par sa hiérarchie grâce à l’outil informatique. Même le cadre le plus “nomade” est tenu en laisse par son téléphone et son ordinateur portables, témoins de ses efforts et de ses relâchements pendant le temps qu’il passe loin du siège. Quant aux camionneurs, leur travail et leurs trajets sont absolument transparents aux yeux de leurs patrons. Grâce à l’informatique embarquée et au GPS, les possibilités pour un employé du fret routier d’assouplir son itinéraire, de dissimuler des pauses ou des détours indus sont réduites à presque rien. Des capteurs reliés à l’ordinateur de bord permettent même d’analyser après coup sa manière de conduire, pour pouvoir lui donner des “conseils” qui réduiront le risque de panne, la consommation d’essence ou… sa propre fatigue.

Si notre contemporain ordinaire est un agriculteur subventionné par l’Europe, l’administration peut vérifier grâce à des photos satellites qu’il ne ment pas au sujet des cultures qu’il déclare et de leur superficie, afin de ne pas lui attribuer des primes qu’il ne “mérite” pas. S’il est éleveur, il est sommé d’installer une puce électronique à l’oreille de ses bêtes, pour que leur identité soit reconnue par les lecteurs des services vétérinaires qui contrôlent les troupeaux, et par ceux des abattoirs où les animaux seront “bipés” comme n’importe quel article de supermarché. Traçabilité oblige.

En France, s’il est écolier, il figure dans toute une batterie de fichiers qui sont abreuvés d’informations à son sujet, de la maternelle jusqu’à la fin des études et même au-delà. La Base Élèves n’était qu’un ballon d’essai, désormais chaque élève aura son Livret personnel (et numérique) de compétences, véritable banque de données sur son parcours depuis le plus jeune âge, qui sera plus tard consultable par des recruteurs ou des agents de Pôle Emploi censés l’aider à trouver un travail. Il y a aussi, entre autres, le logiciel Suivi de l’orientation, qui vise à répertorier les 150 000 élèves sortant chaque année du système scolaire sans diplôme, ou le logiciel Sconet qui enregistre les notes, les absences, les sanctions des collégiens. Il y a les bornes biométriques pour accéder au réfectoire, dans les établissements où la traditionnelle carte de cantine est jugée trop archaïque et malcommode. Il y a, de plus en plus, des systèmes d’envoi automatisé de SMS aux parents dès qu’une absence de leur progéniture est constatée par les ordinateurs du lycée.

S’il demande un congé maladie, une allocation de chômage ou un revenu minimum, il doit prendre garde aux recoupements d’informations que la gestion informatique facilite entre les différentes caisses d’assurance et d’assistance, l’administration fiscale et les banques. Enfin, s’il a commis un délit, fût-ce le plus insignifiant, en a été victime ou simplement retenu comme témoin, il figure pour plusieurs dizaines d’années dans le STIC : le Système de traitement des infractions constatées, à ce jour le plus généreux et le plus ouvert des fichiers de police, avec ses quarante-cinq millions d’inscrits.

Il y a dix ou quinze ans, un tel tableau du futur proche pouvait encore sembler improbable et paranoïaque. Aujourd’hui, il est banal, la plupart de ses éléments sont connus de tous, certains font d’ailleurs l’objet d’indignations aussi récurrentes qu’inconséquentes. Demain, il se pourrait qu’il paraisse enfantin, préhistorique.

Auteur: Groupe Marcuse

Info: La liberté dans le coma

[ vie quotidienne ] [ management du parc humain ] [ métadonnées ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Notre réalité est pure information. Information géométrique. L'information étant le sens, sous forme de symbolisme. 

D'où la question, quel type d'information pour exprimer un langage géométrique ?

Information implique signification. Mais que veut dire signification ?

C'est une comparaison, c'est à dire la perception de quelque chose relativement à quelque chose d'autre. Ainsi, pour pouvoir exister une chose doit être perçue, ou mesurée, par quelque forme de conscience. 

Einstein a montré que passé et futur existent simultanément dans un objet géométrique ; de fait tous les temps existent conjointement (les mathématiques le montrent de plein de manières). Donc : passé et futur s'influençant sans cesse, tout est toujours dans l'instant présent. Alors, si chaque moment influence et co-crée chaque autre moment dans quelque sens que ce soit, la réalité ne peut qu'être un massif  réseau neuronal qui sillonne l'espace et le temps.

Réseau doté d'une spécificité étonnante. Il serait son propre créateur.

Parallèlement, comme l'a démontré la mécanique quantique, le futur n'est pas prédéterminé. Conséquemment existe le libre-arbitre.

Comment marche le libre-arbitre ? La physique quantique montre que la réalité n'existe que lorsqu'elle est observée. Wheeler déclara en son temps que la réalité est constitué d'informations, elles-mêmes créées par l'observation. Frank Wilczec ajouta ensuite que la physique quantique reste obscure et sujette à débat. Et qu'elle le restera tant qu'on aura pas défini, au sein du formalisme quantique, un observateur, entité moderne dont les conditions et/ou contours correspondent à une caricature reconnaissable de la conscience consciente. C'est à dire une entité, pas nécessairement terrestre, capable d'observer et mesurer.

Mais comment pourrait être cette entité ? Je suis, nous sommes... tous conscient, mais qu'est-.ce que cela veut dire ?

On sait juste que la conscience est liée de manière proche à  la science physique mais personne ne sait dire ce qu'elle hors de l'idée qu'elle joue un rôle central dans l'existence du réel.

Est-elle juste l'émergence d'une boucle de rétroaction de causalité ? Heisenberg développa en son temps les maths matricielles, arrivant à la conclusion que la réalité est pixelliseé en nano unités tridimensionnelles insécables, de la taille la plus petite dans l'échelle de Planck. Chacune (nommée tétrahedron, c'est à dire un polyèdre composé de quatre faces triangulaires) fonctionnant comme nos pixels sur les écrans TV.

Hélas ce qui précède n'apporte aucune preuve que cet espace, le notre, soit un tel ensemble uniforme, homogène, fluide, etc.  Malgré tout, mathématiquement, tout converge vers la consolidation de cette idée d'une pixellisation de la réalité.

Du coup quel code géométrique sera-t'il à même de modéliser cette réalité pixellisée ?

Les recherches au CERN ou ailleurs  sur la physique des particules conduisent toutes vers ce que les physiciens nomment "transformation de symétrie de jauge", chacune menant vers une notion de forme, géomètrique donc.

Mais ici apparait une forme, et pas n'importe laquelle. Il s'agit d'un modèle géométrique à 8 dimensions, plus précisément un crystal 8 D (Rappelons que crystal signifie motif périodique), modèle qu'on pourra se représenter tel un "treillis à 8  dimensions" (E8 lattice), structure 8 D qui présente 240 noeuds, ou points tournants (vertex-vertices), que nous nommons gosset polytope.

Lorsque ce gosset polytope est projeté en 4 dimensions il se métamorphose en deux formes identiques de tailles différentes, dont le ratio est précisément 0,618, c'est à dire celui du nombre d'or, constante fondamentale de la nature qui apparait à toutes les échelles de l'univers connu (par exemple il détermine le moment précis ou un trou noir passe de positif à négatif en étant partie de l'équation qui précise la limite inférieure de son entropie). Il se rapporte aussi à la gravité de la boucle quantique.

Ainsi ce ratio de Fibonnaci unifie les limites inférieures et supérieures (cosmiques - quantique) de la préhension du réel par les scientifiques, physiciens pour grande partie.

Et, si on revient aux maths matricielles qui fonctionnent à partir d'eigen values (Valeur propre, vecteur propre et espace propre) indiquées comme triviales (1,2 ou 0) ou non triviales (pour les nombres plus complexes.) on arrive à la partie intéressante : les deux plus grandes probabilités d'eigenvalues non triviales qui apparaissent dans une matrice binaire sont :

-  le golden ratio  et

-1 sur (over) le nombre d'or.

Tel est le lien très profond qui unit mécanique quantique et cosmologie. Ce ratio, qui est apparu dans un grand nombre d'observations, a cependant toujours été appréhendé par les scientifiques comme un truc d'amateurs. Et maintenant on constate, une fois de plus, que ce nombre d'or apparait vraiment partout.

Pour terminer résumons ici les sept indices que nous donne la nature pour contruire cette théorie du tout (emergence theory)

information

indéterminisme

boucle de causalité

conscience

pixellisation

cristal E 8  (à 8 dimensions)

nombre d'or

Auteur: Anonyme

Info: Youtube - Quantum Gravity Research, What Is Reality? Official Film. https://www.youtube.com/watch?v=w0ztlIAYTCU

[ sciences ] [ septénaire ] [ miroir anthropocentrique ] [ monde humain consensuel ] [ atemporalité ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

planètes comparées

(Au sujet d'une incarnation antérieure, dans une civilisation plus évoluée, sur une autre planète.)

Pour répondre succinctement. J'ai nommé cette planète "SS3" par commodité, il y a de très nombreux systèmes triples rien que dans notre galaxie, particulièrement dans les zones stellaires denses.

Sur ma "SS3" personnelle, il y a donc trois étoiles proches, elles sont vues comme blanches / jaunes toutes les 3, contrairement à ma planète précédente SS2B qui comporte une étoile bleue.

Il n'y a pas de nuit noire sur SS3, mais une fluctuation complexe de luminosité, une variation non linéaire qui est due au parcours de la planète autour des deux étoiles principales.

Ce parcours n'est ni circulaire, ni elliptique, ni ne s'opère dans un plan de dimension 2. C'est un billard à trois bandes en dimension 3.

Les cortèges planétaires qui se créent autour de systèmes triples sont dans un équilibre très complexe, il y a une sorte de parcours orbital en formes de cacahuètes, combinés et assemblés les uns avec les autres, en dimension 3.

L'équivalent de notre "année" terrestre et qui consisterait à retrouver une position de départ par rapport aux trois attracteurs gravitationnels que sont ces trois étoiles proches, cette année-là est beaucoup plus longue.

L'atmosphère fait tampon, mais il y a de fortes variations de température.

L'atmosphère n'est pas transparente, on voit très bien les trois soleils mais on ne voit quasiment jamais d'autres étoiles, quel que soit l'endroit/moment dans le cours de la révolution complexe. Le ciel est toujours plus ou moins lumineux, il n'y a jamais de nuit noire, ce qui est dû autant à l'épaisseur de l'atmosphère qu'à la densité d'étoiles dans cette zone, et aussi au nuage de gaz stellaires dans lequel SS3 circule, le cosmos local est beaucoup plus lumineux que ce que nous connaissons sur terre.

Le ciel n'est pas bleu, ce serait une chose très étrange sur SS3, il est jaune, avec des teintes ocres parfois, près du sol.

L'équivalent des saisons est quelque chose qui s'étale sur de très longues périodes, au point qu'elles sont imperceptibles en tant que telles.

Le tellurisme de la planète est un autre élément, il y a des zones à activité volcanique avec des gaz riches en soufre. Un humain terrestre mourrait en 5 minutes, son corps ne pourrait pas respirer cette atmosphère.

Pour complexifier les choses, il faut nécessairement intégrer le fait que la nature a donné à l'espèce dominante (la mienne d'alors) et à quelques autres la capacité de modifier le niveau vibratoire de l'enveloppe biologique jusqu'à pouvoir la passer à l'état epsilon intégral.

SS3 serait un monde extrêmement étrange pour un humain terrestre qui la visiterait, il est probable qu'il ne distinguerait pas tout alors que pour les résidents de ce lieu, la modularité vibratoire est présente depuis les origines.

En terme de sommeil, il y a l'équivalent mais pas du tout comparable au cycle de 24 heures sur terre, ni en durée, ni en nature. C'est une sorte de catalepsie très profonde.

Outre la transmutation intégrale de l'enveloppe biologique, l'exportation de matière epsilon et donc des perceptions est une faculté naturelle. Les sciences et les technologies de SS3 se sont nécessairement développées en intégrant cet état de la matière, en comparaison la situation des humains terrestres et de leur "science" actuelle paraît lourdement handicapée à la base.

Les facultés psi qui découlent de la maîtrise naturelle de l'état epsilon dès l'enfance sur SS3, ces possibilités seraient de la science fiction pour un humain terrestre.

En comparaison cet humain terrestre, même extrêmement doué en psi, serait considéré comme très lourdement handicapé, à 99% incapable d'agir normalement.

Au regard des mémoires de SS3 (et plus encore de SS2B), les conditions de l'incarnation actuelle comme humain terrestre semblent extrêmement primitives, limitées, ridicules.

Ce n'est pas du mépris, c'est PIRE, c'est une vision objective: IMPOSSIBLE d'avoir de la considération pour cette humanité terriblement handicapée, violente, stupide et primitive, y compris pour les prétendus leaders politiques, financiers, et... spirituels.

Ici c'est un désastre quasi intégral, on se demande si c'est vraiment possible d'y changer quoi que ce soit.

Pour certains d'entre nous, c'est pour ce challenge impossible qu'ils sont venus s'associer à un corps biologique aussi handicapé, au sein d'une société qui ignore quasiment TOUT mais qui se pense le centre de la Création et qui voudrait donner des leçons au cosmos entier.

Surréaliste, cet endroit. Après 35 000 ans de passage successifs ici, je ne m'y fais toujours pas vraiment.

C'est la planète des enfants perdus.

Avec d'autres, je suis venu pour cela.

C'est autant une joie profonde, une exultation, une exploration passionnante et riche que le sentiment parfois que la tâche est trop importante et insurmontable.

Cette lassitude épisodique, transitoire, heureusement nous savons qu'elle vient de l'enveloppe extrêmement primitive avec laquelle nous sommes associés pour être, circuler et agir ici.

Par rapport à SS3, ce que j'aime personnellement ici, c'est le ciel bleu, l'eau et la nuit étoilée. Et la diversité des entités associées au corps biologique de l'espèce "dominante". Dominante, c'est ce qu'elle croit, car comme presque tout ce que l'humanité pense savoir, c'est entièrement faux.

Auteur: Auburn Marc

Info:

[ hiérarchies civilisationnelles ] [ transmigration interstellaire ] [ métaphysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

manipulation génétique

Des scientifiques de Cambridge créent le premier organisme vivant au monde avec un ADN entièrement redessiné
Les chercheurs créent un génome synthétique, en mouvement avec des bénéfices médicaux potentiels. C'est le premier organisme vivant au monde dont le code ADN est entièrement synthétique et radicalement modifié.

Le microbe fabriqué en laboratoire, une souche de bactéries que l'on trouve normalement dans le sol et dans l'intestin humain, est semblable à ses cousins naturels, mais survit grâce à un ensemble plus restreint d'instructions génétiques.

Cette existence démontre que la vie peut exister avec un code génétique restreint et ouvre la voie à des organismes dont les mécanismes biologiques sont piratés pour fabriquer des médicaments et du matériel utile, ou pour ajouter de nouvelles caractéristiques telles que la résistance aux virus.

En deux ans, des chercheurs du laboratoire de biologie moléculaire de l'Université de Cambridge ont lu et redessiné l'ADN de la bactérie Escherichia coli (E. coli), avant de créer des cellules avec une version synthétique du génome modifié.

Le génome artificiel contient 4m de paires de bases, les unités du code génétique épelées par les lettres G, A, T et C. Imprimé en entier sur des feuilles A4, il compte 970 pages, faisant de ce génome le plus grand que les scientifiques aient jamais édifié, de loin.

"Il n'était pas du tout clair s'il était possible de créer un génome de cette taille et s'il était possible de le modifier autant", a déclaré Jason Chin, un expert en biologie de synthèse qui a dirigé le projet.

L'ADN enroulé à l'intérieur d'une cellule contient les instructions dont il a besoin pour fonctionner. Lorsque la cellule a besoin de plus de protéines pour croître, par exemple, elle lit l'ADN qui code la bonne protéine. Les lettres d'ADN sont lues dans des trios appelés codons, tels que TCG et TCA.

Presque toute vie, de la méduse à l'homme, utilise 64 codons. Mais beaucoup d'entre eux font le même travail. Au total, 61 codons produisent 20 acides aminés naturels, qui peuvent être enfilés ensemble comme des perles sur une ficelle pour construire n'importe quelle protéine de la nature. Trois autres codons sont en effet des panneaux stop : ils indiquent à la cellule lorsque la protéine est prête, comme le point marquant la fin de cette phrase.

L'équipe de Cambridge a entrepris de remodeler le génome d'E. coli en enlevant certains de ses codons superflus. Travaillant sur un ordinateur, les scientifiques ont examiné l'ADN de l'insecte. Chaque fois qu'ils rencontraient TCG, un codon qui fabrique un acide aminé appelé sérine, ils le réécrivaient en AGC, qui fait le même travail. Ils ont remplacé deux autres codons de la même manière.

Plus de 18 000 éditions plus tard, les scientifiques avaient retiré toutes les occurrences des trois codons du génome de l'insecte. Le nouveau code génétique a ensuite été synthétisé chimiquement et, morceau par morceau, ajouté à E. coli où il a remplacé le génome naturel de l'organisme. Le résultat, rapporté dans Nature, est un microbe avec un code ADN complètement synthétique et radicalement modifié. Connu sous le nom de Syn61, ce bug est un peu plus long que la normale, et grandit plus lentement, mais survit néanmoins.

"C'est assez incroyable", a déclaré Chin. Lorsque l'insecte a été créé, peu avant Noël, l'équipe de recherche a fait prendre une photo dans le laboratoire avec une plaque des microbes comme figure centrale dans une reconstitution de la nativité.

De telles formes de vie ainsi conçues pourraient s'avérer utiles, croit Chin. Parce que leur ADN est différent, les virus envahisseurs auront du mal à se propager en elles, ce qui les rendra de fait résistantes aux virus. Ce qui pourrait apporter des avantages. E. coli est déjà utilisé par l'industrie biopharmaceutique pour produire de l'insuline pour le diabète et d'autres composés médicaux contre le cancer, la sclérose en plaques, les crises cardiaques et les maladies oculaires, mais des cycles de production entiers peuvent être gâchés lorsque les cultures bactériennes sont contaminées par des virus ou autres microbes. Mais ce n'est pas tout : dans le cadre de travaux futurs, le code génétique libéré pourrait être réutilisé pour que les cellules produisent des enzymes, des protéines et des médicaments de synthèse.

En 2010, des scientifiques américains ont annoncé la création du premier organisme au monde doté d'un génome synthétique. L'insecte, Mycoplasma mycoides, a un génome plus petit que E. coli - environ 1m de paires de bases - et n'a pas été radicalement remanié. Commentant les derniers travaux, Clyde Hutchison, du groupe de recherche américain, a déclaré : "Cette échelle de remplacement du génome est plus grande que n'importe quel remplacement complet du génome rapporté jusqu'ici."

"Ils ont porté le domaine de la génomique synthétique à un nouveau niveau, non seulement en construisant avec succès le plus grand génome synthétique à ce jour, mais aussi en apportant les plus grands changements de codage à un génome à ce jour", a déclaré Tom Ellis, un chercheur en biologie synthétique à Imperial College de Londres.

Mais il se peut que les données ne durent pas longtemps. Ellis et d'autres construisent un génome synthétique pour la levure de boulangerie, tandis que les scientifiques de Harvard font des génomes bactériens avec plus de modifications au codage. Il n'est pas surprenant que l'E. coli redessiné ne pousse pas aussi bien que les souches naturelles, a ajouté Ellis. "Si quelque chose est surprenant, c'est qu'il grandisse après tant de changements," dit-il.

Auteur: Internet

Info: https://www.theguardian.com, Ian Sample rédacteur scientifique Wed 15 mai 2019 18.00 BST

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

greenwashing

1/ La construction, l’installation, l’entretien (usage de produits nettoyants, de désherbant) des "fermes" solaires possède un lourd impact écologique. Il faut extraire les métaux et autres minerais, fondre la silice a très haute température pour obtenir le silicium, etc. Et qui dit extractions minières dit destructions environnementales et pollutions. Au préalable, il faut avoir construit les machines qui permettent d’extraire, transporter et traiter lesdits minerais, ainsi que les machines pour construire ces machines, et ainsi de suite — c’est un large ensemble d’industries qui sont nécessaires pour fabriquer des panneaux solaires (la même chose est vraie de n’importe quel objet de la civilisation industrielle). Par ailleurs, leur durée de vie ne dépasse guère vingt à trente ans ; ils ne sont ensuite que partiellement recyclés, génèrent donc des déchets, et n’ont pas grand-chose de "renouvelables" (sachant que le recyclage est en lui-même une industrie énergivore, qui requiert des machines, des machines qu’il faut construire, etc. — sachant, en d’autres termes, que le recyclage n’est pas non plus écologique). Enfin, des études récentes semblent montrer que la haute température des panneaux est mortelle pour les insectes qui les survolent, déjà durement éprouvés pour d’autres raisons.

2/ Les panneaux solaire n’ont de plus probablement jamais permis d’éviter un seul gramme d’émissions de gaz à effet de serre. En effet, les nouvelles sources d’énergie ne font que s’ajouter aux précédentes tandis que la production totale ne fait que croitre. On exploite les hydrocarbures partout où on le peut (gaz de schiste, sables bitumineux, gisements arctiques) et de surcroit on détruit les forêts pour construire des panneaux solaires. Il y a addition, et non remplacement.

La part prise par l’énergie solaire photovoltaïque est au demeurant extrêmement faible dans la consommation totale d’énergie (une tromperie commune consiste à ne parler que de l’électricité en oubliant que le gros de notre énergie est issue d’hydrocarbures de façon directe sans passer par la forme électrique), soit 0,4% du total dans le monde et 0,8 % en France. Cette légère augmentation ne suffit pas même à compenser la profusion de nouveaux "besoins" énergétiques créés par les technologies nouvelles.

Ainsi, la consommation d’électricité mondiale du seul bitcoin est dix fois supérieure à la production d’électricité photovoltaïque de la France, et trois fois supérieure à celle de l’Allemagne dont on vante l’avance dans le domaine. Interdire une crypto-monnaie, qui n’est au fond pas grand-chose de plus qu’une pyramide de Ponzi permettant à certains de spéculer, à d’autres de blanchir de l’argent et financer des activités illicites, ferait plus pour limiter les besoins en électricité fossile que des décennies de subventions massives du photovoltaïque.

3/ Un argument encore plus fort est celui du cannibalisme énergétique, qui prend en compte le fait que la construction de panneaux solaires est très couteuse en énergies fossiles sous une forme ou sous une autre (mines, fonte des métaux, du silicium, camions pour leur mise en place…). Si le déploiement de l’énergie censé remplacer les fossiles se fait à un rythme élevé, le secteur de substitution sera pendant la période de déploiement consommateur net d’énergie. En effet, si un panneau solaire, sur ses 20 à 25 années de durée de vie produit en 7 ans une quantité d’énergie qui compense celle nécessaire à sa construction, mais que dans le même temps on a construit deux autres panneaux, alors il faudra encore attendre pour que la construction de tous ces panneaux soit compensée, et si on ne cesse d’en construire toujours plus, alors le secteur augmente la demande de fossiles au lieu de la réduire. Au mieux, ce ne sera qu’au bout de longues décennies que le secteur cessera de croître et pourra réellement compenser les émissions liées à son déploiement. Le problème c’est que, comme le disent les climatologues, après plusieurs décennies, il sera trop tard.

4/ Pire encore. Au même titre que l’énergie fossile ou nucléaire, l’énergie produite par les panneaux solaires (ou les éoliennes, ou n’importe quelle autre source d’énergie dite verte, propre, renouvelable ou décarbonée) ne sert par définition qu’à alimenter d’autres appareils, d’autres machines issues du système techno-industriel ; à alimenter les infrastructures industrielles et numériques de la machine à détruire la nature qu’est devenue notre société, à alimenter les smartphones, les ordinateurs, les écrans de télévision, les voitures (électriques), l’inutile pollution lumineuse, les serveurs financiers, les usines d’aluminium, les écrans publicitaires dans l’espace public poussant à surconsommer, etc. (de plus en plus de compagnies minières se tournent vers les centrales de production d’énergie dite renouvelable, verte ou propre, notamment le solaire ou l’éolien, afin d’alimenter leurs installations d’extractions minières, pour la raison que ces centrales sont relativement simples à mettre en place). L’électricité produite par les centrales de production d’énergie dites vertes, propres ou renouvelables est donc elle-même largement néfaste écologiquement, dans ses usages, indépendamment de la façon dont elle est produite.

5/ On pourrait enfin évoquer un argument d’ordre culturel et politique. Les panneaux solaires (et éoliennes), négligeables en ce qui concerne les réalités du système énergétiques, sont omniprésent dans les discours, images et communication du grand récit officiel : "le développement durable". À ce titre, on peut penser que leur rôle principal est celui d’une diversion, d’objets inutiles mais rassurant au service du consentement à l’ordre établi. Il n’y a pas à s’inquiéter pour l’avenir, ni à restreindre sa consommation, ce n’est pas la peine de renoncer à l’automobile ou à l’avion : les énergies renouvelables sont là pour nous permettre de conserver pour toujours la débauche énergétique actuelle. Il suffit d’investir où il faut son épargne, de favoriser la finance verte ou de lancer un vaste plan d’investissement public.

Auteur: Autard Jean

Info: https://www.partage-le.com/2022/03/22/les-panneaux-solaires-ne-sont-pas-ecologiques-par-jean-autard/

[ coûts cachés ] [ déresponsabilisation ] [ solution miracle ] [ critique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

déconnexion

La mort telle qu'elle n'avait jamais été vue
L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel? Cela, l'étude ne le dit pas.
Une expérience réalisée dans une université berlinoise a permis de visualiser ce qui se passait dans le cerveau d'un mourant au moment fatidique. Et les résultats, inédits, sont étonnants. Cérébralement parlant, la mort est moins une extinction qu'un ultime embrasement électrique.
C'est la grande, la fatidique question : que se passe-t-il dans notre cerveau - et donc dans notre esprit, dans notre conscience - à la minute de notre mort ? La réponse, jusqu'ici, paraissait hors d'atteinte de l'investigation scientifique : personne n'est jamais revenu de l'autre rive pour témoigner de ce qu'il avait vu et ressenti au moment de passer de vie à trépas.

Certes, il y a bien ces récits troublants recueillis sur les lèvres de celles et ceux qui ont frôlé la mort de près. Regroupés sous l'appellation d'"expériences de mort imminente" (EMI), ils sont pris très au sérieux par une partie de la communauté des neuroscientifiques qui les répertorie et les décortique, comme le fait l'équipe du Coma Science Group à l'université de Liège (lire ci-dessous).

Mais, par définition, les survivants dont l'expérience a été reconnue comme authentique EMI après évaluation sur l'échelle de Greyson (du nom du psychiatre américain Bruce Greyson, qui l'a proposée en 1983) ont échappé à la mort. Ils n'en ont vu que l'ombre. La mort elle-même et ce qu'elle provoque dans le cerveau du mourant demeurent entièrement nimbés de mystère. Du moins était-ce le cas jusqu'à cette année...

Dans une étude publiée par la revue "Annals of Neurology" qui a fait sensation - et qui fera sans doute date dans l'histoire encore toute récente de la thanatologie -, le professeur en neurologie expérimentale à l'université Charité de Berlin, Jens Dreier, détaille l'expérience extraordinaire à laquelle son équipe et lui se sont livrés sur neuf patients. Ces neuf personnes, toutes entrées en soins intensifs à la suite de blessures cérébrales, faisaient l'objet d'un monitorage neurologique lourd, plus invasif qu'un simple électroencéphalogramme.

"Il s'agit d'une technique non conventionnelle, qui permet d'enregistrer l'activité électrique du cerveau, y compris à de très basses fréquences, de l'ordre de 0,01 hertz", explique Stéphane Marinesco, responsable du Centre de recherche en neurosciences de Lyon. Les basses fréquences émises par le cerveau ont du mal à traverser le scalp, ce qui les rend indétectables aux appareils d'électroencéphalogramme dont les électrodes sont placées sur le cuir chevelu. Dans le système de monitorage dont étaient équipés les patients du service du Pr Dreier, les électrodes étaient placées à l'intérieur du crâne, et même sous la dure-mère, cette membrane rigide qui entoure le cerveau et la moelle épinière.

Le cerveau, un vaste mystère qui reste à élucider
Cet accès aux très basses fréquences, correspondant à une activité électrique lente, a été la fenêtre qui a permis à Jens Dreier et son équipe de visualiser ce qui se passait dans le cerveau de personnes en train de mourir. Pour leur expérience, les neuroscientifiques allemands ont simplement demandé aux familles, une fois devenu évident que le patient ne survivrait pas à son accident, l'autorisation de poursuivre l'enregistrement jusqu'au bout. Et même un peu au-delà du "bout", c'est-à-dire de la mort cérébrale, ce moment à partir duquel un classique électroencéphalogramme n'enregistre plus aucune activité cérébrale et que l'Organisation mondiale de la santé considère comme le critère médico-légal du décès.

Vague de dépolarisation
Qu'ont montré les enregistrements réalisés à la Charité de Berlin ? Quelque chose de tout à fait fascinant, jusque-là inédit, et qui devrait peut-être amener les spécialistes à reconsidérer leur définition du décès et de son moment exact. Ce phénomène cérébral, indique l'étude, survient entre 2 et 5 minutes après l'ischémie, moment où les organes (dont le cerveau) ne sont plus alimentés en sang et donc en oxygène. Et il dure lui-même une petite dizaine de minutes. On peut l'assimiler à une sorte d'incendie électrique qui s'allume à un bout du cerveau et, de là, se propage à la vitesse de 50 microns par seconde dans tout l'encéphale avant de s'éteindre à l'autre bout, son oeuvre de destruction accomplie. Les neuroscientifiques parlent de "vague de dépolarisation".

Pour maintenir le "potentiel de membrane" qui lui permet de communiquer avec ses voisins sous forme d'influx nerveux, un neurone a besoin d'énergie. Et donc d'être irrigué en permanence par le sang venu des artères qui lui apporte l'oxygène indispensable à la production de cette énergie sous forme d'adénosine triphosphate (ATP). Tout le travail de Jens Dreier a consisté à observer ce qui se passait pour les neurones une fois que, le coeur ayant cessé de battre et la pression artérielle étant tombée à zéro, ils n'étaient plus alimentés en oxygène.

"L'étude a montré que les neurones se mettaient alors en mode 'économie d'énergie'", commente Stéphane Marinesco. Pendant les 2 à 5 minutes séparant l'ischémie de l'apparition de la vague de dépolarisation, ils puisent dans leurs réserves d'ATP pour maintenir leur potentiel de membrane. Pendant cette phase intermédiaire, au cours de laquelle le cerveau est littéralement entre la vie et la mort, celui-ci ne subit encore aucune lésion irréversible : si l'apport en oxygène venait à être rétabli, il pourrait se remettre à fonctionner sans dommages majeurs.

Réaction en chaîne
Mais cette résistance héroïque des cellules nerveuses a ses limites. A un moment donné, en l'un ou l'autre endroit du cerveau, un premier neurone "craque", c'est-à-dire qu'il dépolarise. Les stocks de potassium qui lui permettaient de maintenir son potentiel de membrane étant devenus inutiles, il les largue dans le milieu extra-cellulaire. Il agit de même avec ses stocks de glutamate, le principal neurotransmetteur excitateur du cerveau.

Mais, ce faisant, ce premier neurone initie une redoutable réaction en chaîne : le potassium et le glutamate par lui libérés atteignent un neurone voisin dont ils provoquent aussitôt la dépolarisation ; à son tour, ce deuxième neurone relâche ses stocks et provoque la dépolarisation d'un troisième, etc. Ainsi apparaît et se propage la vague de dépolarisation, correspondant à l'activité électrique lente enregistrée par le système de monitorage spécifique utilisé à la Charité de Berlin. Le "bouquet final" du cerveau sur le point de s'éteindre définitivement.

Il est d'autres circonstances de la vie où l'on observe des vagues de dépolarisation, un peu différentes en ceci qu'elles ne sont pas, comme ici, irréversibles. C'est notamment le cas dans les migraines avec aura, naguère appelées migraines ophtalmiques, car elles s'accompagnent de symptômes visuels qui peuvent être de simples distorsions du champ visuel, mais aussi, parfois, l'apparition de taches lumineuses, voire de véritables hallucinations assez similaires à celles rapportées dans les EMI.

L'embrasement final du cerveau mis en lumière par l'expérience de Jens Dreier est-il à l'origine de l'apparition de cette intense lumière blanche que les personnes ayant fait une expérience de mort imminente disent avoir vue briller au bout d'un mystérieux tunnel ? Cela, l'étude ne le dit pas. Mais l'hypothèse ne paraît pas indéfendable. ,

Auteur: Verdo Yann

Info: Les échos.fr, 25/11 à 17:23

[ cessation ] [ disparition ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective affirmée

Jouant avec 10 coups d’avance, la Chine est le véritable maître du jeu, la Russie est d’ores et déjà consciente du risque de se faire vassaliser par son puissant voisin.

Ce qui conditionne la géopolitique du présent comme des prochaines années, c’est la lutte froide-chaude entre les USA et la Chine + l’accès à l’énergie, à l’eau et à certaines matières premières. Tous les autres conflits sont à la périphérie de ce duel.

LE PASSE-FUTUR

Le passé cosmique étant en partie l’avenir de la terre, il est relativement confortable d’anticiper certains paramètres.

PARAMÈTRE 1 : Le programme des Gestionnaires de la planète Terre se poursuit suivant leur Plan

Les administrateurs non humains terrestres interviennent sur le ‘’jardin’’ comme ils le font depuis des éons : physiquement, génétiquement, et bio-énergétiquement. Entre autres choses, ils gèrent les avancées scientifiques de l’humanité terrestre, les accélérant et les freinant selon les cas.

PARAMÈTRE 2 : Les développements scientifiques et technologiques sont les véritables révolutions.

Ils impactent directement la politique, la sociologie, l’économie et la guerre.

Les principales innovations viendront des biotechnologies et des technologies d’assemblage à l’échelle atomique. Ces dernières vont redécouvrir des matériaux ‘’exotiques’’ : hyper-résistance, inaltérabilité, autoassemblage, supra-conductivité électrique, production endogène d’énergie. A base de carbone, de silicium puis par assemblage avec d’autres éléments. Un immense champ de recherches s’ouvrira…

De nouveaux paradigmes scientifiques vont en émerger, avec des développements sur des palettes de plus en plus diversifiées. Ils vont à terme changer la donne sur la production et le stockage d’énergie, le transport terrestre et spatial, et l’armement. La géopolitique en sera bouleversée, avec la fin de certaines raretés et le développement de l’autonomie énergétique à toutes les échelles.

En sus, la mise en évidence de l’état ‘’epsilon’’ de la matière va ouvrir une nouvelle direction scientifique dont on n’a pas idée en 2022. Entre autres choses, à terme, il deviendra très aisé de contrôler l’esprit humain ordinaire, sans utiliser les médias (presse, télévision, internet) inféodés et contrôlés par les leaders Industriels et politiques humains à l’époque où ces lignes sont écrites.

PARAMÈTRE 3 : La démographie du présent (2022) anticipe de manière très sûre le 21ème siècle.

La stabilisation de la population humaine, sa maîtrise, voire sa réduction s’avère une donnée incontournable bien que largement tabou pour le commun au début du siècle. Elle peut s’opérer contrainte, par crises, ou bien gérée paisiblement dans la durée.

Ici, ce sera probablement par crises, espérons qu’elles seront les moins radicales possibles.

PARAMÈTRE 4 : Résistance et atout ‘’caché’’ des USA face à la Chine

Il serait extrêmement étonnant que les services de renseignements russes et chinois ne soient pas informés de l’AVANCE TECHNOLOGIQUE considérable qu’ont pris les USA sur le reste de la planète, par la rétroconception de technologies exotiques, assistés par certains exogènes eux-mêmes.

Cependant, cette avance a créé une sorte d’élite planétaire qui s’est rapidement et largement affranchie du système ‘’démocratique’’ et de l’état américain lui-même. Ses membres sont actuellement issus de toutes origines terrestres, l’hyper compétence dans un domaine de pointe étant le principal critère d’entrée : mathématiques, physique, etc.

La stratégie politique de cette élite est la discrétion maximum, ce qui implique la non-intervention sur le sol de la planète.

A titre d’exemple, si l’on parle vélocité, les missiles hypersoniques de la Russie vont possiblement à mach 20 (environ 7 km seconde - 400 km minute) ou plus, très certainement en utilisant des technologies MHD comme l’explique JP PETIT. Ils accélèrent grosso modo de manière conventionnelle par échange de quantité de mouvement, en s’appuyant sur le milieu ambiant ou / et avec des fusées. Leur limite est celle de la résistance des matériaux aux forces d’accélération.

Les ARV (Alien Reproduction Véhicules) des black programs s’appuient sur des technologies très différentes, beaucoup plus avancées. Ils peuvent circuler dans l’espace, une zone où la matière est très peu dense et où la MHD ne fonctionnerait pas ou très peu, les accélérations seraient très faibles bien que continues.

Les ARV ont franchi le mur de la lumière depuis la fin des années 1970, ils passent de 0 à 20 000 km / heure quasi instantanément et peuvent prendre des virages à angle droit, ils ne sont plus soumis aux lois réputées universelles de la masse et de l’inertie. On ne peut pas les voir car ils vont trop vite. En outre, un second facteur les rend furtifs : ils changent de dimension. Ils peuvent facilement prendre des passagers, ce qui semble plus compliqué avec les technologies russes de missiles hypervéloces.

Ces ARV sont souvent observés comme des OVNIS de forme triangulaire.

Que l’on parle des technologies MHD ou bien des technologies de rétroconception Z .R, il s’agit de produire des champs magnétiques de très haute intensité, mais dans le second cas ils sont beaucoup plus puissants et complexes.

Il est spéculatif de penser que l’élite interviendra dans les conflits traditionnels terrestres, fussent-ils nucléaires. La grande avance technologique ‘’cachée’’ des black programs pourrait modifier la donne dans la compétition Chine – USA, au moins sur le court terme. Idem sur une organisation secrète chinoise, extrêmement puissante financièrement. J’ai eu plusieurs contacts avec certains de leurs membres, ils sont parfaitement conscients de la présence des Gestionnaires non terrestres et de la structure poly dimensionnelle de la Création.

Les Administrateurs non terrestres de la planète font la démonstration constante de leur interventionnisme au niveau du nucléaire civil et militaire, ceci depuis plus de 60 ans. Il nous faut espérer qu’ils gardent la même politique en cas de conflit nucléaire généralisé imminent.

LE FUTUR

J’avais prévenu, je vais faire le contraire de ce que je recommande comme étant raisonnable.

Une seule raison à cela pour le moment, le souvenir d’une vie future en chine, dans 250 ans. Cette réminiscence a commencé spontanément en 2019, lors d’une balade en voiture dans ce que je nomme maintenant ‘’la vallée du souvenir’’. En effet c’est quelque part ici qu’il y a la grotte du souvenir, un lieu secret où certains reviennent chercher la pierre qu’ils y ont déposée lors d’une incarnation passée.

Les Voyages dans le futur et dans le passé m’ont tout de suite étonné. Je dois dire qu’à chaque nouvelle exploration de ce type, je comprends encore moins ce qu’est le temps, à part qu’il est subjectif et dépend à la fois de l’état de conscience et de la position vibratoire où l’on se trouve.

Cette émergence mémorielle a débuté exactement comme celles relatives aux vies passées sur terre. Puis elle apporte son flot de détails de manière continue, comme pour les autres incarnations. Je vais le redire mais oui, moi aussi je n’y comprends rien. Les bidules spiritualeux du genre : ‘’toutes les incarnations se passent en même temps’’ ne me conviennent pas du tout.

Et NON, mon incarnation du 23ème siècle n’est pas un futur possible. Cette théorie me semble plus un jeu de l’esprit qu’autre chose, une simple discussion de salon, mais vous connaissez mon côté tranchant.

A ce moment la Chine est l’état le plus avancé au monde, à presque tous les points de vue. Bien que le monde humain terrestre de 2370 soit plus multipolaire qu’en 2022, il reste rassemblé autour d’un point central économique, scientifique et culturel : la Chine.

Mauvaise nouvelle pour les égocentristes des démocraties à l’occidentale : la Chine n’est pas une démocratie suivant leur modèle. En deux mots, elle a géré la question des populations, des croyances religieuses scélérates et violentes, de la délinquance et de la pauvreté. Depuis environ 250 ans, c’est le centre du monde terrestre. Je suis l’un d’entre eux, chinois par ma mère, occidental par mon père qui est natif d’un pays européen nordique, mais je ressemble parfaitement à un chinois, enfin si l’on en croit mon souci de conformité des jeunes années de ce moi du futur. Lui et moi sommes la même personne avec deux costumes différents.

Avant la seconde moitié de ce 23ème siècle, le crédit social a évolué vers une forme de reconnaissance entièrement basée sur l’utilité de l’individu envers la collectivité. Autour de moi, personne ne conteste ce système qui nous parait à la fois juste et logique.

Il n’y a pas eu de guerre nucléaire généralisée, juste des explosions d’armes nucléaires tactiques de puissance "modérée", dans des conflits dont les enjeux étaient l’énergie, au 21ème et au 22ème siècle. Je ne m’intéresse pas plus à l’histoire du 21ème siècle qu’une personne de 2030 se soucie de ce qui s’est passé au 17ème siècle, ici ou là. C’est juste de la culture générale non impliquante.

Comme les souvenirs reviennent régulièrement, la scène s’étoffe de plus en plus. Ma vie personnelle d’alors, je pense que chacun s’en fiche, alors parlons de mon action principale : je vais participer à la préparation de l’intégration de l’humanité dans le groupe cosmique local.

Non, la "révélation" généralisée ne semble pas être pour demain.

Auteur: Auburn Marc

Info: Post FB du 21 août 2022 - Voyage, mémoire et géopolitique du 21ème siècle

[ voyage astral ] [ futurologie ] [ ufologie ]

 

Commentaires: 0

Ajouté à la BD par miguel