Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1846
Temps de recherche: 0.0475s

fausse viande

La Décroissance : Pour vous, l'abolition de l'élevage fait le jeu du capital : il y a une collusion d'intérêts entre ceux qui la prônent et la science, l'industrie, les start-up des biotechnologies, les investisseurs qui se saisissent du marché en plein essor des substituts alimentaires...

Jocelyne Porcher: [...] Ce qui se développe aujourd'hui, le véganisme, la revendication d'en finir avec l'élevage, cela sert des intérêts économiques. L'agriculture cellulaire qui arrive, en collusion avec les défenseurs des animaux au nom d'une agriculture sans élevage, s'inscrit dans la continuité du processus d'industrialisation de la production alimentaire. On passe de la production de matière animale à partir d'animaux à la production de matière animale sans les animaux, avec les mêmes acteurs : c'est-à-dire la science, l'industrie, la banque. [...] Avec l'agriculture cellulaire, on change le niveau d'extraction : au lieu d'extraire la matière animale à partir de la vache, du cochon, etc., l'extraction se fait à un niveau plus resserré, au niveau de la cellule. On est bien dans la même logique de pensée, complètement inscrite dans le système capitaliste. Ce qui explique à la fois le soutien financier accordé aux associations véganes, type L214, qui reçoit directement de l'argent d'une fondation américaine et qui a une surface médiatique sans commune mesure avec ce qu'elle fait réellement, c'est-à-dire de la communication au service d'une agriculture sans élevage. [...]

LD : En quoi consiste la viande "propre" que les start-up veulent produire ?

JP : Mark Prost, un des premiers biologistes a avoir travaillé là-dessus, celui qui a présenté le premier hamburger in vitro en 2013, disait : "La viande in vitro est 100% naturelle, la seule différence c'est qu'elle est produire en dehors de la vache..." C'est ça l'idée: ils considèrent que la vache, ce n'est que de la ressource de matière animale. [...] L'idée de certaines start-up, c'est de faire l'équivalent du produit industriel en se passant d'animaux : selon eux, la multiplication de cellules de poulet va donner la même chose que le poulet qu'on achète actuellement dans les supermarchés, au moins visuellement...

LD: On a l'impression qu'ils n'en sont qu'au stade expérimental. Ce marché est-il appelé à grandir ?

JP: [...] Il y a des milliards investis là-dedans, des dizaines de start-up qui se développent, le potentiel du marché est énorme, non seulement en ce qui concerne la viande in vitro, mais aussi l'ensemble des substituts: le faux lait, les faux oeufs, le faux cuir... le faux tout. D'un point de vue technique, ce qu'on réussit à faire dans un incubateur, on peut réussir à le faire dans cent incubateurs. [...] Après il y a le volet sanitaire : ce sera peut-être un peu plus compliqué de garantir l'innocuité de ces produits. Mais aux Etats-Unis, cette viande in vitro est déjà autorisée à la vente, comme si c'était un produit ordinaire. La deuxième limite, c'est le consentement des gens à manger ces produits. C'est pourquoi, en plus de l'aspect production, les start-up des biotechnologies font un travail de fond pour préparer les consommateurs, construire la demande. De ce point de vue, des associations comme Peta aux Etats-Unis, L214 en France et Gaïa en Belgique, préparent vraiment le terrain pour que le marché des substituts se développe.

LD: Pour vendre ces substituts, l'industrie des biotechnologies affirme qu'elle oeuvre pour un monde meilleur. Vous, au contraire, vous montrez qu'elle signe le triomphe de la société industrielle et technicienne.

JP : Non seulement c'est l'industrialisation complète du vivant, mais c'est aussi la réduction de la vie au vivant. [...] On produit un amas de cellules qui se multiplient, c'est du vivant biologique, mais il n'y a pas de vie. C'est effectivement le triomphe de la technique, en tant qu'elle est complètement mortifère. Je le dis en citant Michel Henry, qui l'explique dans son livre La Barbarie : le triomphe de la technique sur la vie, c'est une destruction de la vie même, des affects, de la culture, du lien, de tout ce qui fait que la vie, c'est autre chose que du vivant.

LD: Le mouvement de la "libération animale" a l'air plus implanté dans les métropoles que dans les campagnes. Est-ce que vous pensez que ce type de préoccupation relève d'une civilisation très urbanisée comme l'est la nôtre, hors-sol, où on n'a plus de contact avec la terre, l'élevage et la production alimentaire en général ?

JP : Quand on est dans un milieu rural où il y a encore des vaches dans les champs, où les gens peuvent encore croiser des agriculteurs, des éleveurs, avoir un rapport à la vie et à la mort, les revendications d'en finir avec l'élevage passent beaucoup moins facilement que dans un milieu urbain, où les gens sont complètement déconnectés de la production, de ce que c'est qu'un champ, une prairie, de ce qui fait la relation de travail entre les humains et les animaux, et plus largement entre les agriculteurs et la nature. [...] Toute la propagande abolitionniste leur dit qu'élevage et production animale, c'est pareil. Ils sont dans la compassion, l'émotion. Des visions d'animaux maltraités leur arrivent sur leurs smartphones, et ils ont des réactions binaires : "la viande c'est mal, c'est affreux, je n'en mange plus." [...]

LD: Marx ironisait au XIXe sur les bourgeois qui se préoccupaient de protection animale mais qui ne se souciaient pas de la dégradation des conditions de vie dans les cités industrielles. Dans votre livre, vous notez aussi qu'une certaine protection animale, contemporaine de l'industrialisation et de l'urbanisation, parle de "bien-être animal" en dépolitisant la question.

JP : C'est aussi ce qu'a souligné l'historien Maurice Agulhon à la suite de Marx : le fait qu'au XIXe siècle, la protection animale vise d'abord à pacifier les classes populaires, avec l'hypothèse que la violence commise envers les animaux est de leur fait, et qu'au-delà couve le risque d'une violence contre l'ordre social, contre la bourgeoisie. Toute cette bourgeoisie, qui tient les transformations sociales, veut pacifier les mœurs après les révolutions de 1830 et 1848. Et l'un de ses moyens, c'est de pacifier les rapports envers les animaux, avec l'idée qu'il y a une violence atavique des classes populaires contre les animaux, que les gens ordinaires sont des brutes épaisses qu'il faudrait maîtriser, former, éduquer, civiliser. La loi Grammont, votée en 1850, [...] condamne le cocher qui malmène son cheval, mais pas le bourgeois propriétaire de la mine où descendent des chevaux et des enfants. On condamne la violence des personnes, des paysans, des ouvriers, mais on ne remet pas en cause les énormes bouleversements qu'engendre l'industrialisation [...] : la violence inouïe contre les enfants, les femmes et les hommes, mais aussi contre les animaux qui sont tous prolétarisés. Aujourd'hui, les défenseurs du "bien-être animal" sont toujours dans cette vision individuelle et dépolitisée : il suffit de voir une association comme PETA appeler à éduquer les gens, les rendre moraux, en leur donnant de la viande in vitro s'ils tiennent absolument à en manger, alors qu'elle occulte complètement les rapports sociaux et l'organisation du travail pensée par la bourgeoisie. Pourtant, la question, c'est bien la place des animaux dans les rapports sociaux, la violence faite aussi bien aux humains qu'aux animaux. Dans les porcheries industrielles par exemple, les gens subissent les mêmes conditions de vie au travail que les bêtes : on est enfermé du matin au soir, dans la poussière, le bruit, les odeurs infectes, c'est le même univers concentrationnaire pour les uns et pour les autres.

Auteur: Porcher Jocelyne

Info: Dans "La décroissance" N°165, décembre 2019, pages 26-27

[ enjeux économiques ] [ lobbies ] [ nourriture ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

chaînon manquant

L'HUMANITÉ AURAIT ELLE FRÔLÉ L'EXTINCTION ?

"1 280 individus seulement : l'humanité a failli disparaître il y a près d'un million d'années

Une étude parue dans Science révèle que population humaine pourrait s'être maintenue à environ 1 300 individus pendant une centaine de milliers d'années. Une "presque extinction" qui pourrait avoir joué un rôle majeur dans l'évolution des hommes modernes et de parents disparus, les Néandertaliens et Dénisoviens.

Il y a près d’un million d’années, un événement dévastateur a presque anéanti nos ancêtres. Les données génomiques de 3 154 humains modernes suggèrent qu'à ce moment, la population aurait été réduite d’environ 100 000 à seulement 1 280 individus reproducteurs — soit un déclin démographique d'ampleur (98,7 %) sur une durée de 117 000 ans, qui aurait pu conduire l’humanité à l’extinction.

Le fait que vous puissiez lire cet article, et que la population mondiale atteigne aujourd'hui les plus de 8 milliards (chiffres de novembre 2022), montre bien que cela n'a pas été le cas. Mais les résultats de cette récente étude, publiée dans la revue Science le 31 août 2023, permettraient d'expliquer l'écart déjà observé entre les archives fossiles humaines d'Afrique et d'Eurasie durant le Pléistocène.

La génétique pour comprendre l'évolution de la lignée humaine

Les datations récentes situent les plus anciens Homo sapiens il y a environ 300 000 ans, en Afrique. Seulement, avec si peu de fossiles datant de cette époque parvenus jusqu'à nous, la manière dont la lignée humaine a évolué avant l'émergence de l'espèce reste plutôt incertaine.

Pour en savoir plus sur cette très secrète période, proche de l’évolution de l’Homme moderne, une équipe a étudié le génome de plus de 3 150 humains actuels. Des individus issus de dix populations africaines et de quarante populations non africaines, plus précisément.

Elle a pour cela développé un nouvel outil analytique, le "processus de coalescence rapide en temps infinitésimal" (FitCoal). Grossièrement, le FitCoal leur a permis, en examinant la diversité des séquences génétiques observées chez les descendants et comment elles ont divergé au fil du temps, de déduire la taille des groupes composant leurs lointains ancêtres.

Leurs résultats ont ainsi révélé un "goulot d'étranglement démographique" important il y a environ 930 000 à 813 000 ans, c'est-à-dire un épisode de réduction sévère de la population — suivi d'une nouvelle expansion démographique, d'où les termes de "goulot d'étranglement".

Un risque élevé d'extinction lié aux changements climatiques ?

Dans l'étude de l'évolution d'une espèce, les goulots d'étranglement démographiques liés à une guerre, une famine ou encore une crise climatique, ne sont pas rares. La baisse de la diversité génétique qui en résulte peut même être retracée jusqu’à la descendance des survivants.

C’est ainsi que les scientifiques ont pu en déduire qu'un tel phénomène s'est produit plus récemment, il y a environ 7 000 ans, dans la population humaine de l’hémisphère nord.

Toutefois, le cas du goulot d'étranglement bien plus ancien semble avoir été d'une gravité particulièrement exceptionnelle, puisque le groupe a alors perdu 65,85 % de sa diversité génétique et environ 98,7 % de sa population reproductrice, selon les données. Pendant plus ou moins 117 000 ans, cette dernière aurait été limitée à environ 1 280 individus.

Nos ancêtres ont connu un goulot d'étranglement démographique si grave pendant très longtemps qu'ils ont été confrontés à un risque élevé d'extinction. — Wangjie Hu, coauteur principal de l'étude de l'École de médecine du Mont Sinaï à New York (États-Unis) interrogé par LiveScience.

S'il est aujourd'hui difficile d'établir avec certitude les différents facteurs qui ont mené à ce goulot d'étranglement, un événement majeur semble coïncider dans les datations : la transition du milieu du Pléistocène (il y a entre 1,25 et 0,7 million d’années), où la Terre s'est vue sévèrement refroidie en raison de l'allongement des cycles glaciaires et interglaciaires.

Les glaciers ont émergé, les températures des océans ont diminué… et de longues sécheresses ont touché l'Afrique et en Eurasie. Pour les populations humaines luttant alors pour leur survie, ces conditions plus que défavorables auraient pu entraîner famines et conflits. La disparition d'autres espèces, sources de nourritures, pourrait aussi avoir contribué à leur déclin.

Encore une fois, les conséquences de ces bouleversements climatiques ne peuvent être constatées, tant les fossiles et les artefacts humains de cette période sont relativement rares. Peut-être, parce que la population était si faible durant cette fameuse période.

Cette donnée permet en tout cas d'enfin expliquer chronologiquement "l'écart entre les archives fossiles africaines et eurasiennes [...] au début de l'âge de pierre". "[Cet écart] coïncide avec la période proposée de perte significative de preuves fossiles", explique en effet l'anthropologue Giorgio Manzi de l'université Sapienza de Rome (Italie), coauteur principal de l'étude dans un communiqué.

Un changement de génome et une divergence des hominidés

Ce goulot d'étranglement pourrait aussi avoir contribué à une caractéristique du génome humain : la fusion de deux chromosomes en un seul, le chromosome 2. Les autres hominidés encore vivants, dont les grands singes, en possèdent en effet 24 paires, nous, 23. Cet événement de spéciation semble d'ailleurs avoir contribué à ce que les humains prennent une voie évolutive différente. Expliquons.

Des recherches ont déjà suggéré que le dernier ancêtre commun, partagé par les Hommes modernes (Homo Sapiens), les Néandertaliens (Homo neanderthalensis) et les Dénisoviens (Homo denisovensis), vivait il y a environ 765 000 à 550 000 ans… soit à peu en même temps que le phénomène décrit.

Si dernier ancêtre commun a vécu pendant ou peu après le goulot d'étranglement, celui-ci aurait pu jouer un rôle dans la division des groupes d'hominidés, suggèrent les chercheurs : la population pourrait s'être séparée en de petits groupes survivants, qui, au fil du temps, auraient développé des caractéristiques suffisamment importantes pour que les différents groupes deviennent distincts — avec d'une part l'Homme moderne, d'autre part l'Homme de Néandertal et l'Homme de Denisova.

Or, c'est aussi il y a environ 900 000 à 740 000 ans, que les deux chromosomes anciens semblent avoir convergé. Et puisque tout cela coïncide, les nouvelles découvertes suggèrent finalement que la quasi-éradication de l'homme pourrait avoir un lien avec ce changement majeur dans le génome humain.

En outre, "puisque les Néandertaliens et les Dénisoviens partagent cette fusion avec nous, elle a dû se produire avant que nos lignées ne se séparent", suggère à nos confrères Chris Stringer, paléoanthropologue au Musée d'histoire naturelle de Londres (Angleterre) qui n'a pas participé à l'étude.

"Brosser un tableau complet de l'évolution humaine"

Si la lutte pour la survie, il y a environ 930 000 à 813 000 ans, semble avoir joué un rôle dans la formation des chromosomes de l'Homme moderne, l'inverse est-il vrai ?

L'équipe suggère plutôt qu'un climat plus hospitalier il y a environ 813 000 ans, ainsi que la maîtrise du feu, sont des facteurs cruciaux qui pourraient avoir permis à nos ancêtres de rebondir. De plus amples recherches seront nécessaires pour y voir plus clair, ainsi que pour établir si la sélection naturelle qui a eu lieu durant cette période a accéléré l'évolution du cerveau humain.

Ces résultats ne sont qu'un début. — Haipeng Li, généticien théorique des populations et biologiste informatique de l'Académie chinoise des sciences, coauteur principal dans le communiqué.

Les objectifs futurs de ces connaissances visent à brosser un tableau plus complet de l'évolution humaine au cours de cette période de transition entre le Pléistocène précoce et le Pléistocène moyen, ce qui permettra à son tour de continuer à percer le mystère de l'ascendance et de l'évolution de l'homme primitif.

Auteur: Internet

Info: https://www.science.org, 31 aout 2023, trad et résumé Mathilde Ragot

[ paléolithique ]

 

Commentaires: 0

Ajouté à la BD par miguel

modes vibratoires

Considérons que l'univers dans lequel on vit serait une tapisserie, le fil utilisé serait donc de l'epsilon. Marc, j'espère ne pas galvauder le terme, sinon, toutes mes excuses...

Pour le contexte : j’ai commencé à vivre des expériences pas normales quand j’étais petite, je faisais du sport de compétition, version hardcore. Pendant une journée d’entraînement où je répétais la même suite de mouvement "jusqu’à ce que ça rentre", donc des centaines de fois à la suite, je m’étais retrouvée dans un état peut-être d’épuisement, mais surtout à 2 endroits à la fois, avec une conscience très accrue dans l’un et l’autre. Un énorme kif. J’étais à la fois dans la salle de gymnastique, et à la fois dans un espace noir non identifié. Je me sentais investie et entourée d’une énergie folle, et extrêmement lucide, et dans ma perception cet espace noir était moi, sur un autre plan.

Puis évidemment, comme c’était très intrigant et agréable, j’ai cherché à retrouver cet état, et compris au bout d’un certain temps et quelques étapes dont je vous fais grâce que c’était d’abord le mental qu’il fallait écarter et mettre en sourdine.

Être présente et consciente sur plusieurs plans en même temps, c’est devenu LA chose qui vaut la peine d’investiguer pour moi (Ça m’a été présenté plus tard comme une sorte de mission de vie), et c’est le point de départ d’expériences diverses et variées, suivant les plans. Avec le temps, ça s’est étoffé, affiné, notamment dans le sens ou j'ai appris à distinguer différentes "trames", soit composition de l'espace dans lequel on se trouve.

A préciser que la seule corde d’argent que j’ai vu, c’est celle de mon grand-père qui était mourant, et que j’accompagnais depuis "l’espace noir".  La mienne, jamais vue, c’est pour ça qu’en lisant Marc, je me dis que je navigue par le biais de cette matière epsilon, sauf que... pas seulement si je me repère à ses autres descriptions. 

Alors dans le désordre, une tentative de classement de plusieurs densités, de la plus basse à la plus haute vibration, ou du plus collant au plus magnifique. Je n’ai jamais pris la peine d’élaborer un vocabulaire, vu que je n'ai jamais discuté de ces choses-là en-dehors de ce groupe, vous me pardonnerez des formulations peut-être nébuleuses :

1. Bas étages : c’est lourd, des sortes de cavernes dans une gamme de couleurs moches et ternes, jaune/brun/orange plus qu’opaque. Tout est lent, lourd et sans joie. J’y ai suivi (de loin) mon grand-père qui est parti dans cette zone après son décès.

2. Plan physique : Qu’est-ce qui se passe maintenant et ici à X distance : perso, je n’aime pas tellement faire ça, peu agréable, pas très rapide par rapport à d’autres sphères et collant pour reprendre le terme de Marc (moi je m’étais dit encombré/dense).

3. Plan "esprit" : En restant ici et maintenant, mais en se branchant sur quelqu’un, les infos/sensations/historique des causes et ressentis/préoccupations arrivent sous forme de scène dans laquelle on est plongé, c’est très rapide, parfois juste un flash et très complet à la fois. Pas de contrainte de temps. Là, il y a moins de colle, un petit peu moins de densité, mais on reste dans la trame epsilon. Les informations sont justes, pour autant qu'on ne cherche pas à les interpréter (ce qui est trèèèès difficile), pour celles que j'ai pu vérifier.

Variante : Une fois, un monsieur âgé est tombé de son vélo à quelques mètres de moi dans la rue, une équipe médicale tentait de le réanimer. Je perçois tout d’un coup, toujours à travers ce que j'appelle espace noir, une forme-énergie qui s’approche de moi, c’est lui. Il me demande de lui indiquer ce qu’il doit faire et me dit  (sans emploi de langage, mais par image-ressenti-intentions instantané) qu’il aimerait bien revoir une ancienne amie. Je lui répond sur le même mode "pas de problème, vas-y, tu es libre d’y aller, c’est par là" et il disparaît. Ce type tellement doux m’a bcp touché, et j’ai parfaitement en mémoire la teinte émotionnelle fine et complexe que j’ai vu de lui. Tout ça s’est déroulé en moins d’une seconde. Dans l'espace normal, le Monsieur est décédé.

4. Contact avec des entités : Depuis l’espace noir, j’ai une vraie copine qui n'est pas toujours là, mais m'accompagne depuis que je suis née. Entre autres: Elle m’a fait visiter sa vie à elle, a pris les devants pour m’aider une fois quand je me suis retrouvée dans une situation potentiellement dévastatrice de ma vie ici, m’a demandée de l’assister pour - aider une femme à mourir mieux que prévu (une accusée de sorcellerie dans le nord de l’Italie, à priori il y a quelques centaines d’années, qui se faisait trucider par tout un village)-. Je sais que cette entité est réelle, je suis bien moins sûre de la femme du village italien. Cette partie-là, me semble-t-il est "traduite" par moi, donc au minimum du minimum : déformée.

5. Vortex : Depuis l’espace noir, un vortex vertigineux ultra rapide m’emmène. C’est à partir de là que je ne pense pas rester dans l’epsilon : Il y a comme un voile qui disparaît, la composition de l'espace change complètement, tout ce qui se passe à partir de là est bien plus intense, réel et vivant que ma vie ici. Une fois, j’ai vu un gros mur brun à franchir, et j’ai pu le passer. Je suis arrivée dans un espace incroyablement intense et vivant, d’une autre trame, bien plus réelle, forte, vibrante, pas le même espace, peu descriptible. Il y avait une présence qui m’attendait. Je suis tombée sur une sorte d’insecte géant qui voulait communiquer avec moi. Seulement cette "personne" ne me semblait pas hostile mais pas du tout avenante ni chaleureuse non plus. En fait, d’une froideur et d’une puissance qui m’a foutu une peur panique et m’a ramenée de suite dans mon lit. Je me suis copieusement traitée d’idiote après coup… 

La plus belle expérience c’est quand le vortex ultra rapide (qui se fout royalement du temps et de l’espace) m’a ramené à ma source, ma famille. On est un groupe de conscience qui est un, tout en étant une population entière. Je ressens un bonheur inégalable, je suis enfin à la maison. Tout est baigné d'amour, de couleurs invraisemblables. Je revis le moment antédéluvien où il a été décidé que moi et d’autres se détachaient du Un pour aller expérimenter. Ce qui s’est passé là est intraduisible : Une émulation variée, commune et instantanée, un amour complet, plusieurs "assertions" mais toutes en un, puis le départ, clair, évident, mais sans rien qui peut ressembler à de la communication ou des sentiments humains. De plus, pour reprendre l'image d'une tapisserie, ben... y a plus de tapisserie, on est dans l'atelier de tissage.

6. Inclassables/Mix : Le Higher Self, qui prend la forme qu’il veut. Mon état énergétique quand je me sens sur plusieurs plans à la fois. Là, je n'arrive vraiment pas à décrire. La rencontre avec moi vivant ailleurs (autre espace-temps, autre univers, mais traduit avec ce que je suis capable d’assimiler). J’ai raconté ça dans mon premier post. Je ne sais toujours pas comment caler celle-là, mais en tout cas, il y a un mix des genres.

Finalement pour résumer : les deux derniers items font passer tout le reste et tout ce qu’on peut vivre sur Terre pour un théatre de marionnettes en papier mâché, avec des fils même pas transparents. Cela dit, je n’ai jamais vu mon corps astral, ni ma corde d’argent… et c’est là que je ne comprends pas si je vis la même chose que vous, voyageurs, ou si je déconne carrément…

Auteur: Anonyme

Info: Sur : Explorateurs du réel, groupe FB de Marc Auburn, début 2021

[ moi supérieur ] [ astral ] [ éthérique ] [ niveaux de conscience ] [ témoignage ] [ gardien du seuil ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

polémique évolutionniste

L'épigénétique, qui existe depuis 50 ans, n'est pas un nouvel acteur majeur de l'évolution. Dans la mesure où son importance avérée est d'ordre génétique. L'évolution culturelle et comportementale est un phénomène réel, mais ce n'est pas une évolution biologique.

Synthèse moderne

La variation génétique est aléatoire. Les mutations qui se produisent n'améliorent pas nécessairement la condition physique. Si les mutations donnent lieu à des caractéristiques qui améliorent la capacité des organismes à survivre et à prospérer, il s'agit d'un simple hasard.

Synthèse évolutionniste élargie (Laland)

La variation phénotypique n'est pas aléatoire. Les individus se développent en réponse aux conditions locales, de sorte que les nouvelles caractéristiques qu'ils possèdent sont souvent bien adaptées à leur environnement.

Presque toute l'évolution est finalement due à une mutation d'une sorte ou d'une autre. Nombreux sont ceux qui pensent que le hasard des mutations est le thème dominant de l'évolution. L'affirmation concernant la synthèse moderne est parfaitement correcte, en première approximation. (On peut ergoter sur les détails.)

L'idée que les phénotypes changent en fonction des conditions locales - par exemple, l'opéron lac s'exprime en présence de lactose - n'est guère révolutionnaire et n'exige pas de changement dans notre compréhension de la théorie moderne de l'évolution.

Synthèse moderne

L'évolution se produit généralement par le biais de multiples petites étapes, conduisant à un changement graduel. C'est parce qu'elle repose sur des changements progressifs provoqués par des mutations aléatoires.

Synthèse évolutive élargie (Laland)

L'évolution peut être rapide. Les processus de développement permettent aux individus de répondre aux défis environnementaux ou aux mutations par des changements coordonnés dans des ensembles de traits.

Est-il possible que Kevin Laland ignore totalement le débat sur le gradualisme, l'hybridation, la symbiose, le transfert horizontal de gènes, les mutations homéotiques, la saltation et les macromutations ? Est-il possible qu'il n'ait jamais pensé aux équilibres ponctués et à la théorie hiérarchique ?

Il est vrai que les vues démodées d'Ernst Mayr et compagnie ("Synthèse moderne") rejetaient toutes ces idées, mais l'évolution a évolué depuis les années 1950. Elle ne se limite plus à de petites étapes graduelles.

Les "révolutionnaires" pensent que les mutations peuvent être dirigées dans un but ultime. L'idée de base d'une augmentation des taux de mutation dans certaines conditions est débattue activement depuis très longtemps (avant 1996). On ne pense pas qu'il s'agisse d'une caractéristique majeure de l'évolution, sauf dans le sens d'une augmentation du taux de mutations "aléatoires".

Synthèse moderne

La perspective est centrée sur les gènes : l'évolution nécessite des changements dans la fréquence des gènes par le biais de la sélection naturelle, de la mutation, de la migration et de la perte aléatoire de variantes génétiques.

Synthèse évolutionniste élargie

La perspective est centrée sur l'organisme, avec des conceptions plus larges des processus évolutifs. Les individus s'adaptent à leur environnement au fur et à mesure qu'ils se développent et modifient les pressions de sélection.

Cette description de la synthèse moderne est la seule fois où j'ai vu Kevin Laland mentionner quelque chose qui ressemble à la dérive génétique aléatoire. Cela ne fait manifestement pas partie de sa vision normale du monde.

Je reconnais que la théorie moderne de l'évolution est "centrée sur les gènes" à cet égard. C'est parce que nous DÉFINISSONS l'évolution comme un changement dans la fréquence des allèles au sein d'une population. Je ne sais pas ce que cela signifie de passer à un point de vue "centré sur l'organisme" comme le décrit Laland. Il est certainement vrai que les cyanobactéries individuelles s'adaptent à leur environnement au fur et à mesure qu'elles grandissent et se développent, et il est certainement vrai qu'elles peuvent modifier l'environnement. Dans le cas présent, elles ont provoqué une augmentation des niveaux d'oxygène qui a affecté toutes les espèces vivantes.

Les cyanobactéries ont évolué pour s'adapter à leur environnement par le biais de mutations aléatoires et de changements dans la fréquence des allèles au sein de la population, en partie sous l'effet de la sélection. Beaucoup d'entre elles se sont éteintes. En quoi est-ce un changement dans notre vision de l'évolution ?

Synthèse moderne

Les processus micro-évolutifs expliquent les schémas macro-évolutifs. Les forces qui façonnent les individus et les populations expliquent également les changements évolutifs majeurs au niveau des espèces et au-delà.

Synthèse évolutionniste élargie

D'autres phénomènes expliquent les changements macro-évolutifs en augmentant l'évolutivité, c'est-à-dire la capacité à générer une diversité adaptative. Il s'agit notamment de la plasticité du développement et de la construction de niches.

L'un des principes de base de la synthèse moderne était que la macroévolution peut être expliquée efficacement comme étant simplement une multitude de microévolutions cumulatives. Les manuels modernes de biologie évolutive abordent d'autres caractéristiques de la macroévolution qui nécessitent un apport supplémentaire, notamment en ce qui concerne la spéciation. La vieille idée selon laquelle la microévolution suffit à expliquer la macroévolution n'est plus un axiome en biologie évolutive, et ce depuis plusieurs décennies [voir Macroévolution].

Les manuels modernes traitent de toutes sortes de choses qui influencent l'histoire à long terme de la vie (= macroévolution). Des éléments tels que les extinctions massives, la stase, la spéciation allopatrique, les contraintes, etc. L'évolutivité a été activement débattue pendant un demi-siècle et elle est bien couverte dans la plupart des manuels. (Voir Futuyma, 2e édition, p. 599). L'évolutivité n'est pas une idée nouvelle qui va révolutionner la théorie de l'évolution. En fait, le consensus, après de nombreux débats et discussions, est que l'évolutivité échoue sur les bancs de la téléologie. La théorie ne résiste tout simplement pas à un examen approfondi.

La sélection organisationnelle pour des caractéristiques qui confèrent un succès reproductif différentiel dans le moment écologique ne peut tout simplement pas générer, de manière active ou directe, un ensemble de caractéristiques qui n'acquièrent une importance évolutive qu'en conférant une flexibilité pour des changements dans un avenir lointain. Nous ne pouvons pas nier que ces caractéristiques d'évolutivité "comptent" profondément dans l'histoire des lignées ; mais comment des avantages pour l'avenir peuvent-ils découler d'un processus causal ici et maintenant ? (Gould, 2002 p. 1274)

Il est malhonnête de laisser entendre, dans un article destiné au lecteur moyen, qu'un sujet comme l'évolutivité est récent et n'a pas été examiné en profondeur, et rejeté, dans la littérature théorique sur l'évolution. Il en va de même pour les concepts de plasticité et de construction de niche. Ce ne sont pas des concepts nouveaux. Les experts compétents en matière d'évolution - ceux qui ont lu et écrit les manuels - ont examiné ces idées et les ont rejetées en tant que facteurs majeurs de la théorie de l'évolution.

Kevin Laland peut ne pas être d'accord avec ces analyses, mais en tant que scientifique, il a l'obligation de les mentionner au moins lorsqu'il écrit des articles promouvant un changement radical de la théorie de l'évolution. Il a la responsabilité de déclarer sa partialité.

Mais je fais une supposition qui n'est peut-être pas justifiée. Peut-être ne sait-il pas que ses opinions ont déjà été débattues, discutées et, pour la plupart, rejetées. Dans ce cas, son omission n'est pas due au fait qu'il induit délibérément ses lecteurs en erreur au sujet de la controverse. Il y a une autre raison.

1. L'accent mis sur les changements héréditaires (allèles) fait partie de la définition minimale actuelle de l'évolution. Elle est très différente de la perspective du "gène égoïste" défendue par Richard Dawkins. Ceux qui ne voient pas la différence ne sont tout simplement pas attentifs.

2. Je me demande comment "l'évolution culturelle" fonctionne chez les cyanobactéries et les érables ? Les principaux participants à la réunion de la Royal Society ont un penchant extrême pour l'évolution des organismes multicellulaires complexes - essentiellement des animaux et surtout des mammifères. Cela influence grandement leur point de vue sur l'évolution. Ils ont tendance à utiliser des exemples qui ne s'appliquent qu'à l'espèce qui les intéresse comme des leviers pour faire basculer l'ensemble de la théorie de l'évolution.

King, J. L., et Jukes, T. H. (1969) Non-darwinian evolution. Science, 164:788-798. PDF (en anglais)

Auteur: Moran Laurence A.

Info: A propos de la nouvelle vision de l'évolution de Kevin Laland, 4 décembre 2016

[ tâtonnements ] [ biogénétique ] [ auto-domestication ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

éloge de l'indiscipline

La question de la désobéissance est au cœur de l’attentat contre le Bataclan. La tuerie a été stoppée par un commissaire de la brigade anticriminalité (BAC) qui a enfreint les consignes. À l’inverse, huit soldats de la force Sentinelle y assistaient les bras ballants, comme on le leur avait ordonné. Ces sujets très sensibles sont abordés dans le documentaire Les Ombres du Bataclan, de Francis Gillery (en ligne sur arte.tv), et dans le livre Le Procès, de Georges Fenech (Éditions du Rocher), d’après les rapports de la commission d’enquête parlementaire.

Quatre-vingt-dix morts, c’est déjà suffisamment monstrueux. Mais le bilan aurait été bien plus lourd sans l’action d’un homme qui a enfreint le protocole. Cet homme, appelons-le commis­saire X, vu qu’il a toujours tenu à garder l’anonymat. En novembre 2015, il fait partie de la brigade anticriminalité (BAC), et patrouille dans le 17e arrondissement de Paris lorsqu’il apprend, par sa radio de bord, l’attentat au Stade de France. Ni une ni deux, il décide de s’y rendre. Il est alors 21 h 25. Quelques minutes plus tard, ce sont les tirs sur les terrasses dans le 11e. Aussitôt, changement de direction. Puis c’est le Bataclan : le commissaire X y parvient à 21 h 54. Devant l’établissement, il trouve des militaires de la force Sentinelle, qui étaient là par hasard. À l’intérieur, ça tire. Il demande aux soldats d’intervenir : leur hiérarchie refuse. Il leur demande alors de lui filer leurs armes : ils leur répondent qu’ils n’ont pas le droit de s’en séparer.

Le protocole aurait exigé que le commissaire X attende sagement l’arrivée des forces d’élite. Mais ce n’est pas son choix. Il appelle sa femme pour lui dire adieu, persuadé qu’il n’en sortira pas vivant, et décide, sans demander l’autorisation de sa hiérarchie, d’entrer avec son équipier dans la salle de concert. Il abat un terroriste, ce qui contraint les deux autres à se replier à l’étage. Dès lors, il n’y aura plus aucun tir sur les spectateurs. On peut affirmer que le commissaire X a mis fin au massacre. Il faudra attendre plus de vingt minutes – durant lesquelles les terroristes n’auraient pas cessé de tirer – pour que la brigade de recherche et d’intervention (BRI) arrive au Bataclan, à 22 h 20 précisément.

Aujourd’hui, le commissaire X est célébré, à juste titre, comme un héros. Mais, selon la rigide logique hiérarchique, il pourrait être sanctionné, puisqu’il a délibérément contrevenu aux consignes. Le livre de Georges Fenech rapporte son témoignage devant la commission d’enquête parlementaire sur les attentats : "Humainement, compte tenu de ce qui se passait, on sentait bien qu’ils étaient en train d’achever les otages, on ne pouvait pas rester à l’extérieur. Un des fonctionnaires a proposé d’attendre la BRI. J’ai répondu non."

L’attitude du commissaire X est à opposer à celle des soldats de la force Sentinelle. Car il y avait non pas un ou deux, mais huit – oui, huit ! – militaires équipés de fusils d’assaut devant le Bataclan. Quand les policiers demandent à la préfecture l’autorisation de les faire intervenir, on leur répond : "Négatif, vous n’engagez pas les militaires, on n’est pas en zone de guerre." Alors, à quoi servent ces guignols en treillis ? S’ils voient une femme en train d’être violée, ils restent les bras ballants tant qu’ils ne reçoivent pas l’ordre d’intervenir ?

On a également dit qu’ils n’étaient pas formés pour ce genre d’intervention. Sans doute. Mais avec un tel raisonnement, le commissaire X ne serait jamais entré dans le Bataclan. La commis­sion d’enquête parlementaire a auditionné le général Bruno Le Ray, alors gouverneur militaire de ­Paris. Sa justification de la passivité des soldats est telle­ment hallucinante que ça vaut le coup d’en citer de larges extraits : "On n’entre pas dans une bouteille d’encre, c’est-à-dire sans savoir où l’on va, ce que l’on va faire et contre qui […] en mon âme et conscience, je n’aurais donc pas donné l’ordre à mes soldats de pénétrer dans le bâtiment sans un plan d’action prédéfini […] il est impensable de mettre des soldats en danger dans l’espoir hypothétique de sauver d’autres hommes […] ils n’ont pas vocation à se jeter dans la gueule du loup s’ils ne sont pas assurés de disposer de chances raisonnables d’accomplir leur mission."

Je pensais naïvement que les militaires étaient entraînés pour faire face à n’importe quelle situation d’urgence. Je ­découvre que non, bien au contraire. Qu’ils ne donnent ­l’assaut qu’après mûre et patiente analyse de la situation, et qu’à la condition d’être certains de ne prendre aucun risque et de réussir, cela quand bien même des gens se font canarder à quelques mètres d’eux ! Georges Fenech, lui non plus, n’en ­revient toujours pas, et n’hésite pas à écrire que "cette passivité confine à de la non-assistance à personne en danger".

Justement, c’est le coeur du sujet. Quand vous êtes huit militaires lourdement armés et que des gens se font tuer à deux pas, n’est-ce pas de la non-assistance à personne en danger que de rester passif (de surcroît en laissant de simples policiers munis de leur flingue de service aller au feu) ? Il y a les ordres, certes. Mais, dans certains cas, on a non seulement le droit, mais le devoir d’y désobéir. L’article D. ­4122–3 du Code de la défense stipule que le militaire "ne doit pas exécuter un ordre prescrivant d’accomplir un acte manifestement illégal". Ce texte a été rédigé pour éviter (ou du moins limiter) la torture ou les massacres de civils. Mais si l’ordre contrevient à l’obligation de porter secours, est-il lui aussi "manifestement illégal" ? En droit pénal, cette obligation de désobéissance porte un nom : la "théorie de la baïonnette intelligente". Un concept qui semble totalement échapper au général Bruno Le Ray.

"Ils étaient en train d’achever les otages, on ne pouvait pas rester à l’extérieur."

Il y en a d’autres qui n’ont pas attendu les ordres. Ce sont les hommes du Raid. Cette unité était alors dirigée par Jean-Michel Fauvergue : "J’étais en train de dîner avec mes hommes quand j’ai appris l’attentat. J’ai alors décidé de me rendre aussitôt, de ma propre initiative, au Bataclan. Mais je n’ai jamais été appelé officiellement." Jean-Michel Fauvergue aurait eu le temps d’avaler dessert et digestif s’il avait attendu l’ordre de sa hiérarchie. Pourquoi le Raid – unité a priori la plus compé­tente dans ce genre de situation – n’a-t-il pas été mobilisé ? Cela reste, encore aujourd’hui, un mystère. Bizarrement, le préfet de police, Michel Cadot, a décidé de confier les rênes de l’opération à la BRI, dont Georges Fenech dit qu’elle est "habituellement compétente pour neutraliser des forcenés ou des preneurs d’otages classiques". Le Raid aurait-il été plus rapide que la BRI s’il avait dirigé les opérations – sachant que plus de deux heures se sont écoulées entre l’arrivée de cette dernière et l’assaut final ? Impossible de répondre, mais, pour Jean-Michel Fauvergue, il est indéniable que "quelque chose ne va pas lorsqu’un groupe spécialisé de compétence nationale se met à la disposition d’un groupe non spécialisé de compétence locale". En tout cas, ce 13 novembre, il assume totalement de ne pas avoir attendu la bénédiction de sa hiérarchie pour intervenir : "Dans ma carrière, il m’est arrivé plein de fois de prendre des initiatives sans attendre les ordres."

Autre problème, encore lié à cette histoire d’obéissance. Dans le documentaire de Francis Gillery, on apprend l’existence d’une brigade d’intervention (BI), à ne pas confondre avec la BRI. La BI était une brigade peu médiatisée, mais d’élite, elle aussi (elle a notamment participé à l’assaut contre l’Hyper Cacher), aujourd’hui intégrée à la BRI. Le 13 novembre, six de ses membres reviennent d’un entraînement à la tour Eiffel, lorsqu’ils ont connaissance de l’attentat au Stade de France. Ils filent illico à leur QG, s’équipent et attendent les ordres, prêts à foncer. Il est environ 21 h 30. Mais c’est la consternation : la hiérarchie leur dit non, vous n’y allez pas. Alors qu’ils sont à cinq minutes des terrasses du 11e arrondissement, on leur ordonne de se rendre au 36, quai des Orfèvres, d’attendre que la BRI s’équipe, puis de s’intégrer à celle-ci. Ce qui les fait arriver au Bataclan vers 22 h 40. Alors qu’ils auraient pu y être au moins quarante-cinq minutes plus tôt, et peut-être même avant le commissaire X ! Un retard incompréhensible, quand chaque minute représente des dizaines de victimes supplémentaires. Dans Les Ombres du Bataclan, un ancien membre de la BI exprime ses regrets d’avoir obéi : "Le commandant qui a appelé pour demander l’autorisation de se rendre sur place, je pense qu’il regrette, non pas d’avoir appelé, mais d’avoir demandé l’autorisation, il aurait dû appeler pour dire on y va. Point."

Depuis, les règles ont changé : dans le même genre de situation, les soldats de la force Sentinelle pourraient intervenir, et l’unité d’élite la plus proche des lieux serait autorisée à conduire les opérations. On peut aussi tirer de cette tragédie une leçon de philosophie : ceux qui font évoluer les règles ne sont pas tant ceux qui les respectent que ceux qui les transgressent, comme l’héroïque commissaire X.

Auteur: Fischetti Antonio

Info: Charlie Hebdo, sept 2021

[ absurde administration ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

mimétisme

La surexposition a déformé la science des neurones miroirs

Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.

Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.

Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.

Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.

Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.

Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.

Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.

Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.

L'ascension et la chute

Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.

Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.

Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.

Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.

(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)

Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».

Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.

Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs.  Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il.  Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.

Le neurone miroir, redéfini

Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.

En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.

Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.

"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.

Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions  personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.

Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.

L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024

[ pulsions partagées ] [ actions symboles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste