Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 32
Temps de recherche: 0.0521s

microbiologie

Les bactéries prennent des décisions basées sur des souvenirs générationnels

Elles choisissent de pulluler en fonction de ce qui est arrivé à leurs arrière-grands-parents.

Même les organismes sans cerveau peuvent se souvenir de leur passé : les scientifiques ont découvert que la bactérie Escherichia coli forme son propre type de mémoire suite à son exposition aux nutriments. Ils transmettent ces souvenirs aux générations futures, ce qui peut les aider à échapper aux antibiotiques, a rapporté l'équipe de recherche dans les Actes de la National Academy of Sciences USA .

" Nous considérons généralement les microbes comme des organismes unicellulaires [qui] font chacun leur propre travail ", explique George O'Toole, microbiologiste au Dartmouth College, qui étudie les structures bactériennes appelées biofilms. En réalité, les bactéries survivent souvent en travaillant ensemble. Tout comme les abeilles qui déménagent leur ruche, les colonies de bactéries à la recherche d’un habitat permanent se déplacent souvent sous forme d’unités collectives appelées essaims.

Ces essaims peuvent mieux résister à l’exposition aux antibiotiques en raison de leur densité cellulaire élevée, ce qui les rend particulièrement intéressants pour les microbiologistes tels que Souvik Bhattacharyya de l’Université du Texas à Austin. Il étudiait le comportement d’essaimage d’ E. coli lorsqu’il a observé ce qu’il appelle des " modèles de colonies étranges " qu’il n’avait jamais vus auparavant. En isolant des bactéries individuelles, lui et ses collègues ont découvert que les cellules se comportaient différemment en fonction de leur expérience passée. Les cellules bactériennes des colonies qui avaient déjà essaimé étaient plus enclines à essaimer à nouveau que celles qui ne l'avaient pas fait, et leur progéniture a emboîté le pas pendant au moins quatre générations, soit environ deux heures.

En modifiant le génome d'E. coli , les scientifiques ont découvert que cette capacité repose sur deux gènes qui contrôlent ensemble l'absorption et la régulation du fer. Les cellules présentant de faibles niveaux de cet important nutriment bactérien semblaient prédisposées à former des essaims mobiles. Les chercheurs soupçonnent que ces essaims pourraient alors rechercher de nouveaux emplacements présentant des niveaux de fer idéaux, explique Bhattacharyya.

Des recherches antérieures ont montré que certaines bactéries peuvent se souvenir et transmettre à leur progéniture des détails de leur environnement physique, tels que l'existence d'une surface stable, explique O'Toole, mais cette étude suggère que les bactéries peuvent également se souvenir de la présence de nutriments. Les bactéries, dont certaines se reproduisent plusieurs fois par heure, utilisent ces détails pour déterminer l'adéquation à long terme d'un emplacement et peuvent même s'installer ensemble dans des biofilms, qui sont plus permanents.

Les microbes autres que E. coli se souviennent probablement aussi de l'exposition au fer, dit O'Toole. " Je serais vraiment choqué si [ces résultats] ne tenaient pas également dans d'autres bugs." Il espère que les recherches futures examineront au niveau cellulaire comment les bactéries traduisent la détection du fer en différents comportements.

Étant donné que les bactéries sont plus difficiles à tuer lorsqu’elles forment des structures plus grandes, comprendre pourquoi elles le font pourrait éventuellement conduire à de nouvelles approches pour lutter contre les infections tenaces. Cette recherche offre l'opportunité de développer de nouveaux traitements contre les infections, dit O'Toole, d'autant plus cruciale que les antibiotiques deviennent de moins en moins efficaces pour tuer ces microbes,



 

Auteur: Internet

Info: https://www.scientificamerican.com/, Allison Parshall, 29 JANVIER 2024

[ atavismes ] [ adaptation ] [ transgénérationnel ] [ procaryotes ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nutrition

On mange moins quand le repas est servi après une activité physique coupe-faim
Manger un repas 15 minutes après une activité physique d'intensité soutenue permet de réduire de 11 % la consommation de calories - et de 23 % celle de gras - comparativement à la prise d'un repas deux heures après la séance d'exercice.
C'est ce qui se dégage d'une étude dirigée par Marie-Ève Mathieu, professeure au Département de kinésiologie de l'Université de Montréal, menée auprès de 12 jeunes hommes de poids normal âgés de 15 à 20 ans.
Les participants ont couru 30 minutes sur un tapis roulant, à une intensité de 70 % de leur capacité cardiorespiratoire, au cours de deux journées de tests. Le premier jour, l'exercice s'est terminé 15 minutes avant le repas du midi, tandis que le deuxième jour il y a eu un délai de deux heures entre la fin de l'exercice et le début du dîner.
Dans les deux cas, le dîner était un buffet composé de plats allant de la salade au gâteau en passant par des macaronis au fromage, des fettuccinis Alfredo et un risotto aux trois champignons. "Il s'agissait d'un buffet validé pour l'expérience qui se veut représentatif de ce qui peut être offert dans la réalité", mentionne Mme Mathieu.
Les données recueillies au cours de l'expérimentation ont révélé que s'alimenter 15 minutes après avoir couru réduit la consommation de calories de 154 (646 kilojoules), soit 11 % moins de calories que lorsque ces mêmes participants ont mangé deux heures après la course sur le tapis roulant.
Fait à souligner, quand les participants ont ingéré moins de calories, ils n'ont pas mangé davantage en après-midi ni au repas du soir.
Autre fait notable, bouger dans les minutes qui avaient précédé le repas a eu pour effet de réduire de 23 % la consommation d'aliments gras en comparaison de l'entraînement effectué deux heures avant de manger.
"Cette donnée rejoint d'autres études qui démontrent que l'attrait pour les aliments ou repas plus riches en gras diminue quand on est physiquement actif", dit celle qui est aussi chercheuse au Centre de recherche du CHU Sainte-Justine, affilié à l'UdeM.
Effet coupe-faim de l'activité physique
Des études ont déjà montré que, à la suite d'une activité physique d'intensité moyenne à élevée, il se produit chez l'individu un effet coupe-faim (ou anorexigène) qui s'atténue graduellement au cours des 60 minutes suivant l'exercice.
L'effort physique réduit la production d'une hormone sécrétée par l'estomac, la ghréline acylée, dont le rôle consiste à "informer" le cerveau que le corps a besoin d'être nourri.
"Ce n'est pas chez tout le monde que cet effet anorexigène transitoire se fait sentir, précise Marie-Ève Mathieu. Les hommes de poids normal le ressentent généralement plus que les femmes obèses par exemple."
Mais le moment le plus propice pour profiter de cet effet restait à déterminer, et c'est ce à quoi l'équipe de Mme Mathieu s'est attelée.
"L'effet du timing de l'activité physique par rapport à l'ingestion de calories est un concept nouveau en recherche, indique-t-elle. On sait par ailleurs que faire de l'activité physique à des moments précis est bénéfique pour améliorer le contrôle de la glycémie et de la pression artérielle."
Il est toutefois difficile, à la lumière des résultats de l'étude, d'évaluer la perte de poids qu'il serait possible d'obtenir à plus long terme en mangeant peu de temps après une activité physique ou s'il est possible ainsi de maintenir son poids. Néanmoins, cet élément pourrait faire partie d'une stratégie de contrôle du poids.
"Ce qui est intéressant, c'est qu'en modifiant une simple habitude il est pensable de perdre quelques kilos : il suffirait de modifier le moment où l'on fait de l'exercice", avance-t-elle.
"Sur le plan de la recherche, nous élaborons des interventions plus ciblées en activité physique qui ont une incidence sur la consommation alimentaire, conclut Marie-Ève Mathieu. Nos résultats ouvrent de nouvelles possibilités d'études et d'interventions en matière de prévention de prise de poids excessive sur le long terme."

Auteur: Internet

Info: http://www.techno-science.net

[ digestion ] [ sciences ] [ appétit ]

 

Commentaires: 0

extensibilité FLP

Dans l'idéal l'étiqueteur FLP devrait savoir oublier son ego. Difficulté proche de l'utopie puisqu'il s'agit de prendre la distance qui permet de voir ses propres vécus comme autant d'illusions. Que presque toutes nos réactions et jugements ne furent que biais de confirmation de notre existence. Et le sont encore majoritairement par simple effet d'inertie. 

Au-delà de son support physique l'incarnation, Moi, Je... ne s'appuye que sur quelques croyances ; éphémères constructions d'un ego dont la mission première est de survivre, pour éventuellement se reproduire. Fugaces échafaudages qui confortent un SOI effarouché par les aléas du réel. D'où, entre autres, les mythes et religions - mais aussi notre rationalité duale et la pensée cybernétique subséquente.

On dira, en termes peircéens, que la secondéité-monade humaine, au vu d'une priméité-source mystérieuse et instable, génère des tiercités, ici linguistiques, majoritairement destinées à se défendre-justifier elle-même. 

On pourra aussi établir un positionnement-classement circulaire des postures potentielles de cette secondéité, le théologique faisant face au scientifique, duo dominant accompagné dans le cercle par quelques termes-postures-attitudes importants - peu nombreux et à cerner-identifier-préciser - comme ceux de conteur, d'humoriste, communiquant, thérapeuthe, joueur... et autres. Distribution à intégrer un jour dans une taxonomie multidimensionnelle FLP plus large, éventuellement septénaire. Mais stop.

Tout ceci n'est pas un "jeu d'enfant". Rappelons le truisme : pour acquérir quelque distanciation egotique il faut avoir éprouvé des choses. Autrement dit, pour détester, il faut tester d'abord. Est pré-requise la matérialité des expériences dans ce réel, suivies de leurs verbalisations et, un peu plus avant, de leurs formulations écrites

OU LUES, car lorsque ces énonciations de l'expérience rencontrent l'esprit du lecteur elle peuvent "résonner" avec lui et son vécu propre. Fonction réflexive, indispensable au participant de FLP. Tout ceci passant évidemment par le "sens de la lecture" (sense of reading).

Celà étant : l'étiqueteur, une fois un minimum de ce recul acquis, se retrouve plus neutre, mieux apte à capter la signification des mots "quasi-esprits" et donc la compréhension de leurs textes matrices. De leurs sémantiques, presqu'en terme arithmétique dans l'idéal.

Sens-signification qui s'appréhende donc via la comparaison d'un vécu-verbalisé, en miroir avec la logique formelle animant le codage verbal du réel, ici français. Assemblage de symboles qui génère une sémantique (un sens) sous-tendue par quatre facteurs-règles-contextes : a) grammaire et déictique (agencement des mots)  b) coutumes-routines et médiatiquement convenable de l'époque-moment où l'idée est proférée c) contexte, qualités et positionnement subjectif de leur auteur. d) état d'esprit, disponibilité, vécu, qualités diverses, etc... du lecteur-tagueur-inserteur.

Ici déjà les problématiques et possibilités de classification nous dépassent de beaucoup. D'où l'importance de s'atteler à la chose collectivement.  

FLP est un outil transitoire en expansion, qui, dans un absolu lexico-sémantique (grâce peut-être à l'informatique quantique à venir), devrait à moyen terme représenter l'émergence centrale consensuelle de concepts terminologisés ; mots-idées issus des conjonctions-discussions-interactions-intégrations sémantiques en son sein. Idéalement via un dialogue continu avec beaucoup d'autres "FLP individuels" que chacun aura développé dans son coin, processus dont l'aboutissement se situe à ce jour dans les chaînes FLP. Le tout sous régulation de règles classificatoire souples et complexes, s'établissant et se modifiant avec le temps.

Ensuite on se prend à imaginer une intelligence lexicologique collective Homme-machine qui, une fois établie son aptitude à consensualiser/préciser les mots-expressions basiques incontournables du cercle évoqué dans le 3e paragraphe - termes centraux, à valeur diachronique si possible -, on pourra, en les conjuguant-mémorisant (comme les 4 bases de l'ADN ?), développer une véritable mémoire-intelligence-réservoir perspectiviste communautaire. Et peut-être même, soyons allumés, dépasser les potentialités du DNA. 

A l'image des mathématiques, elles aussi langage commun à tous, mais ici remises en périphérie, le langage verbal revisité, idiome 2.0 de nos civilisations de singes dépoilés (ou de la Nature extendue par notre entremise) devrait alors permettre d'émanciper l'humain de son enfermement conceptuel anthropocentré. 

Telles sont les grâces d'une logique - à créer/découvrir - indépendante de son propre langage. Tout à fait possible, en des temps où l' accélération exponentielle des savoirs nécessite des pistes de développement culturelles évolutives (scalable) non superficielles. 

Tentative FLP trop ambitieuse, prétentieuse, folle ? Pas vraiment, elle ne fait qu'offrir (sans autre usage du machine learning et de l'IA que pour des tâches mécaniques de vérifications multiples, tout simplement parce que ces tâches seront simplement inhumaines, parce que trop titanesques et ennuyeuses !) un élargissement de la pensée-langage collective en proposant de pousser la taxonomie linguistique numérique " un cran plus loin " ; dans trois directions :

1) Celle de listes analogiques intriquées   

2) Par l'ajout d'étiquettes "non apparentes dans les extraits insérés" qui forcent à la réflexion et au classement sémantique. 

3) Par l'hypothèse-suggestion d'un saut qualitatif taxonomique qui passerait d'une base logique duale vers un socle tétravalent plus souple, puissant, et nuancé. 

Ici on pensera à la puissance d'une mémoire ADN - déjà évoquée plus haut - qui n'est autre que l'essence du vivant.

Auteur: Mg

Info: nov 2022

[ prospective ] [ pré-mémétique   ] [ science-fiction ]

 

Commentaires: 0

Ajouté à la BD par miguel

coévolution bio-linguistique

Cerveau humain, langage et culture matérielle : Quand archéologues et neurobiologistes coopèrent.

Ce sont Chris Renfrew, Chris Frith et Lambros Malafouris, qui ont souligné cette intrication. (in The Sapient Mind, sous-titré Archaeology meets neuroscience - eds, 2009)

- Les patterns observés concernant l’activation [cérébrale] et la superposition avec les circuits du langage suggèrent que la fabrication d’outils et le langage ont une base commune dans une aptitude humaine plus générale à une action complexe et finalisée. Ces résultats sont compatibles avec des hypothèses coévolutionnaires associant l’émergence du langage, la fabrication d’outils, la latéralisation fonctionnelle à l’échelle d’une population et l’expansion du cortex associatif dans l’évolution humaine. (D. Stout & al., “Neural correlates of Early Stone Age toolmaking : technology, language and cognition in human evolution”. 2009 : 1) 

- Les développements récents de l’imagerie cérébrale révèlent des bases communes aux dispositions sociales des hommes et des primates les plus évolués

- L’accroissement des liens sociaux se reflète dans l’accroissement du volume du cerveau, et au moment où l’espèce humaine se dissémine sur le globe et où les liens sociaux risquent ainsi de se déliter, c’est la diffusion d’une même culture matérielle qui va maintenir le lien que l’éloignement géographique fragilise. (Fiona COWARD & Clive GAMBLE “Big brains, small world : material culture and the evolution of mind” 2009) 

Les modifications de l’expression des gènes gouvernant le développement cortical au cours de l’évolution des mammifères ont fourni les conditions à la fois d’un accroissement de taille considérable et d’un retard dans la maturation du cerveau, qui a conféré une influence déterminante aux perceptions, aux actions, à l’apprentissage pour la formation des spécialisations corticales. En même temps, de nouvelles régions ont vu le jour dans le cortex, et de nouvelles connexions se sont mises en place avec les aires primaires, sensorielles et motrices. (Philippe Vernier, 2005 : “Évolution du cerveau et émergence du langage”. - Références : Talmy GIVÓN, Functionalism and Grammar (1995), dernier chapitre : “The co-evolution of language and brain” - Terrence DEACON, The symbolic Species, sous-titré : The co-evolution of Language and Brain 1997 - Ray JACKENDOFF Foundations of Language, sous-titré Brain, Meaning, Grammar, Evolution 2002

- Alors que Vernier ne mentionne que l’évolution des aires corticales, K. Gibson suit de son côté la voie ‘subcorticale’ ouverte par Lieberman (2000) et insiste sur les zones centrales du cerveau également impliquées dans l’administration de la parole et du langage. Kathleen GIBSON (“Not the neocortex alone : other brain structures also contribute to speech and language”, 2013)

Trois manières pour les organismes de s’adapter à des fins évolutives.

(a) Le cas le plus simple est l’évolution génétique, quand la sélection naturelle agit sur les variétés dans une population, sélectionnant au détriment des allèles qui délivrent la moindre convenance (fit) avec l’environnement.

(b) La seconde voie est celle de l’utilisation de la plasticité phénotypique d’un génotype.

(c) La troisième voie exploite des systèmes et des organes qui ont évolué pour s’adapter à des environnements en évolution rapide et qui ont également une assise génétique - p.158. (S. Számadó / E. Szathmáry, “Evolutionary biological foundations of the origin of language : the coevolution of language and brain” 2013

Leur conclusion :

1) Les variantes linguistiques aisées à apprendre et à retenir sont favorisées en termes d’évolution culturelle et donc se répandent plus vite dans une population donnée ;

2) Les cerveaux plus aptes à assimiler les variétés et le changement linguistique offrent des avantages biologiques adaptatifs à leurs porteurs ; donc les gènes responsables des différences adaptatives vont se répandre dans la population.

3) En conséquence, les langues entrent en connexion neuronale avec les besoins du cerveau humain, et les cerveaux s’adaptent à l’apprentissage et au traitement linguistiques. Si bien que les humains peuvent effectuer une foule d’activités qui tirent profit d’un usage plus efficace de la langue (coopération, utilisation d’outils, maintenance des traditions, etc.)

L’évolution de la parole et l'ingénierie neuromimétique

Entreprises de modélisation et de simulation informatique des processus dont on présume qu’ils ont piloté l’émergence et l’évolution du langage.

- L’un des arguments en faveur des approches computationnelles et robotiques de l’évolution du langage est leur nature interdisciplinaire : Cela permet un dialogue direct avec des discipines empriques concernées par le langage et la cognition, telles que les neurosciences cognitives, la psychologie, la linguistique cognitive, la primatologie et l’anthropologie (…). L’ajout de contraintes aux modèles robotiques sur la base de données empiriques améliore aussi l’aptitude de la robotique et des modèles calculatoires pour générer des prédictions basées sur des théories descriptives, lesquelles peuvent être à leur tour validées ou invalidées par de nouvelles études empiriques et modélisatrices (…).” (références : Simon KIRBY, Function, selection, and innateness – The emergence of linguistic universals, 1999. Pierre-Yves OUDAYER automate de simulation de l’origine de la parole : Self-organization in the evolution of speech 2006. Angelo CANGELOSI, “Robotics and embodied agent modelling of the evolution of language” 2013 

Cerveau des primates et mutations génétiques susceptibles d'avoir facilité l'émergence du langage chez les primates humains

Hypothèse mutationniste :

- “Il est extrêmement improbable que le langage humain ait résulté de la simple adaptation du système de communication d’une espèce antérieure. Rien de ce que nous savons de la neuro-anatomie humaine pertinente pour le langage en rapport avec le complexe Aire de Broca-POT [Jonction pariétale-occipitale temporale dans l’anatomie du cerveau humain] ne nous inciterait à imaginer des homologues dans les structures cérébrales directement pertinentes pour les systèmes de communication des singes [apes and monkeys]. (Wendy Wilkins, Towards an evolutionary biology of language through comparative neuroanatomy, 2013 : 206)

Hypothèse adaptationniste :

- En fin de compte, plus on cherche des continuités entre les primates humains et non humains, non seulement en matière de latéralisation mais dans des secteurs décisifs de l’évolution cognitive, plus on trouve de similarités. A notre avis, on peut présumer clairement au minimum que le langage et la parole ne sont pas des conditions nécessaires pour que s’exprime la spécialisation hémisphérique chez les primates non-humains et il est temps de considérer d’autres variables ou facteurs susceptibles d’avoir contribué à la différenciation hémisphérique entre individus et entre espèces. (J. Vauclair / H. Cochet, “Speech-gesture links in the ontogeny and phylogeny of gestural communication”, 2013 : 196)

Consensus et dissensus

Plus personne ne cherche une explication simpliste (ni le ‘tout génétique’, ni le ‘tout social’) et tous reconnaissent l’importance de la dimension épigénétique, prenant en compte l’environnement en expansion et donc diversifié des hominidés qui se sont engagés dans des productions symboliques vocales en marge de leurs productions gestuelles.

Questions centrales actuellement sans réponse consensuelle :

- La faculté de langage est-elle issue du ‘GESTE’ ou du ‘CRI’ ? La réponse d’Arbib vise actuellement à intégrer les deux hypothèses par une boucle rétroactive.

- Le langage est-il apparu au terme de PROCESSUS ADAPTATIFS, sans nécessaire intervention de mutations génétiques modifiant les bases organiques ou à la suite de mutations et par détournement (exaptation) de mécanismes mis en place pour satisfaire d’autres besoins ? 

Essai de compromis :

Schéma en trois phases pour les traits dominants de l’évolution de la parole humaine :

a) L’évolution de la bipédie devenue obligatoire chez Homo erectus a entraîné les effets EXAPTATIFS de la descente du larynx et la perte des air sacs ainsi que le hiatus intervocalis,

b) Durant le pleistocène moyen le contrôle de la respiration pour la parole humaine a évolué comme une ADAPTATION spécifique à la parole, et

c) Avec l’évolution des humains modernes , les proportions idéales du tractus vocal (1:1) ont été atteintes par ADAPTATION ”. (Ann MACLARNON, "The anatomical and physiological basis of human speech production : adaptations and exaptations" 2013 : 235)

Auteur: François Jacques

Info: Fin de sa conférence du 11 décembre 2014. Traductions de l'anglais par FJ

[ interdisciplinarité ] [ sémiose ] [ état des lieux ] [ phylogénétique ] [ mémétique ] [ proto-phonation ]

 

Commentaires: 0

Ajouté à la BD par miguel

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

anthropomorphisme

Les plantes sont-elles frigides?

La plante évoque l'inertie. On dit "végéter" pour "stagner". Mais il y a quelques siècles encore, "végéter" signifiait le contraire. En latin, ce mot désigne la surabondance d'énergie qui pousse une plante à jaillir. Plus on la coupe, plus elle reverdit : la plante, c'est l'énergie sexuelle incarnée. Sur le plan étymologique en tout cas. Les termes latins dont le mot "végétal" dérive désignent à l'origine "force et croissance". Le mot silva (forêt) est attesté dès Cicéron dans le sens de "grande quantité" et d'"abondance de matière". Le mode d'être de la plante est celui d'une prolifération virtuellement infinie, en constante expansion. Quel plus beau modèle prendre pour l'humain que celui du lierre ou du lichen? A la différence des végétaux dont la vie se confond avec la croissance, la plupart des bêtes, une fois adultes atteignent leurs dimensions définitives, explique Dominique Brancher, ce qui explique peut-être pourquoi les plantes font si peur. Elles ne connaissent pas de limites. Elles ne respectent pas l'ordre. Est-ce la cause du stigmate qui les frappe en Occident ? Les plantes sont-elles victimes de spécisme, de sexisme ou de racisme?

Chercheuse à l'Université de Bâle, Dominique Brancher est l'auteure d'un livre qui entend rendre justice au règne végétal : on en a fait un règne dormant, voué à l'immobilité, à l'absence de pensée, de sentiments, de sensations... Quel dommage d'avoir ainsi perverti ce qui - à l'origine de notre culture - était considéré comme une forme de débordement vital. Trop vital. "Eclipsé par l'attention exclusive donnée au vaste débat sur la distinction entre l'animal et l'homme, [...] le végétal s'est vu relégué au rang de tiers-exclu", dit-elle, regrettant que le mot végéter soit devenu synonyme d'inertie. Mais pourquoi un tel revirement? Pour quelle raison notre culture a-t-elle ainsi châtré la plante? Dans un livre au titre explicite Quand l'esprit vient aux plantes (allusion ironique au poème de La Fontaine "Comment l'esprit vient aux filles"), Dominique Brancher retrace l'histoire de ce qu'elle désigne comme l'invention d'un sexisme anti-flore. Nous avons discriminé les végétaux comme l'ont été les femmes : en leur déniant tout désir. Comme l'ont été les "sauvages" : en leur déniant toute intelligence. Comme le sont encore les animaux : en les parquant dans des réserves. C'est pourquoi il faut lire son enquête sur la sexualité des plantes comme un révélateur de nos choix de vie.

Quand les plantes étaient humaines...

Aux origines présocratiques de notre culture, les cosmogonies imaginées par Thalès (né en 640 av. J.-C.), Héraclite (504 av. J.-C.) ou Empédocle (492 av. J.-C.) reposent sur un principe d'équation : nous sommes faits de la même matière que tout ce qui existe, fleur ou astres. Cette règle d'analogie poétique "dit la trame vitale qui tisse les êtres et confond leurs attributs et leurs formes. Les arbres "pondent" leurs fruits et les êtres humains se développent comme des plantes." Pour Empédocle, qui rédige sa théorie en vers fabuleux face au paysage volcanique de sa Sicile natale, il n'y a ni naissance ni mort. Tout chose se renouvelle sous l'effet d'une ardeur brûlante qui traverse la matière. "Toute chose pense", dit-il. Toute chose aime et hait. "Dans ses transmigrations, l'âme humaine épouse les métamorphoses de la matière car elle a "déjà été autrefois garçon et fille, buisson, oiseau ou poisson cheminant à la surface de l'eau" (Empédocle, VIII).". Dans cet univers foisonnant, les plantes ont du plaisir et souffrent comme les humains qui, eux-mêmes, viennent au monde mouillés par la rosée de leur larmes. Empédocle résume ainsi leur première apparition : "Or donc voici comment des hommes et des femmes trempés de pleurs, Feu, se séparant, fit jaillir les pousses dans la nuit" (Empédocle III, Les Origines).

Avec la "raison" vient l'inégalité

Mais cette vision-là du monde est trop poétique sans doute. Dès le 1er siècle avant J.-C., Nicolas de Damas écrit dans son ouvrage De Plantis : "Il faut rejeter ces idées grossières et nous mettre à dire la vérité". Platon (427 av. J.-C.), deux siècles avant lui, n'accorde aux plantes qu'une âme inférieure et en fait des animaux immobiles. Mais c'est Aristote (384 av. J.-C.) qui "réduit encore plus considérablement la dignité du végétal en lui laissant seulement une sorte d'âme (De Anima, A5, 411)". La classification qu'Aristote met en place devient le modèle dominant d'une pensée occidentale qui place l'homme au sommet de la hiérarchie. Dans ce nouvel ordre moral, "les plantes jouissent seulement d'une âme végétative", désormais privées d'entendement. Avec le christianisme, leur statut ne s'améliore pas, au contraire. "Selon l'agenda cloisonné de la Genèse, Dieu créa les plantes le troisième jour, les animaux le cinquième et l'homme le sixième". Dans l'échelle des êtres, le végétal est en bas. Deux attitudes prévalent à son égard. La première repousse les plantes du côté du péché. Le seconde, guère plus enviable, du côté du paradis. Dans les deux cas, la plante est vue comme une créature frigide.

La plante comme symbole du péché de gourmandise Bien qu'ils lui dénient toute capacité de percevoir et donc de jouir, les théologiens estiment en effet que la plante est gourmande. Ne passe-t-elle pas son temps à sucer la terre? Voilà pourquoi elle est au bas de cette Scala Naturae ("échelle de la nature") que de nombreux ouvrages du XVIe siècle décrivent en termes de menace : attention de ne pas tomber ! Chaque échelon figure un degré de déchéance. Quand l'homme commet le péché de luxure (sensualis), il est ravalé au rang d'animal. Quand il a trop d'appétit (vitalis), le voilà végétal. Quand il sombre dans la tristesse (acédie), il rétrograde en minéral. Le christianisme "est une religion qui déconsidère la vie organique au profit de la pensée rationnelle", rappelle Dominique Brancher. Aux yeux des chrétiens, l'homme ne peut prétendre à son statut supérieur qu'à la condition de ne rien avoir en commun avec la (vile) matière. Les bêtes qui forniquent, les rivières qui ondoient et les plantes qui têtent la glaise sans penser, avec une gloutonnerie "stupide et insensible" (Jean Pic de la Mirandole) sont des choses détestables, qui renvoient à la chute.

La plante comme symbole de l'asexualité

Mais il existe une autre attitude vis à vis des plantes : pour certains chrétiens, elles présentent cet avantage sur les animaux d'être "pures". Cela commence au XIIIe siècle, avec Innocent III : dans un texte intitulé De Contemptu mundi, le pape attribue aux plantes la "candeur de l'âme végétative". La plante n'est pas sexuée, dit-il (ignorant qu'il existe des espèces végétales où les mâles et les femelles sont distincts). "Dégagés des ardeurs charnelles qui abêtissent et abrutissent, les végétaux offrent ainsi la rédemption d'un nouvel Eden. Combien d'auteurs de la Contre-Réforme ne célèbrent-ils pas la pureté de la reproduction végétale?". Dominique Brancher cite par exemple Thomas Browne qui, dans les années 1630, déclare : "Je serais heureux, si nous pouvions procréer comme les arbres sans union et s'il existait un moyen de perpétuer le monde sans passer par le coït vulgaire et trivial. C'est l'acte le plus sot qu'un homme sage puisse commettre dans sa vie". Edifiant. La chercheuse enfonce le clou : "Aux yeux de la mystique flamande, la perfection végétale figure une complétude originelle que la Faute, en modifiant le corps physique des premiers hommes, a définitivement dérobé à l'humanité : "Au lieu d'hommes qu'ils devaient être, ils sont devenus des monstres divisés en deux sexes imparfaits, impuissants à produire leurs semblables seuls, comme se produisent les arbres et les plantes".

Savez-vous planter des choux?

Dans la tradition ouverte par Innocent III, tout un imaginaire puritain se cristallise aux XVIe et XVIe siècles autour des plantes. La botanique devient "une technique de maîtrise des instincts, explique Dominique Brancher. On en trouve les répercussions jusque chez Rousseau, "persuadé qu'à tout âge l'étude de la nature émousse le goût des amusements frivoles, prévient le tumulte des passions". "La campagne a toujours été considérée comme le séjour de l'innocence", renchérit Trembley. L'herborisation devient l'activité favorite des puritains. On associe le curé de campagne à un brave jardinier, expert en sirops pour la gorge. "La méconnaissance concertée de la sexualité des plantes, depuis Aristote jusqu'aux naturalistes de la Renaissance, entretient cette vision angélique." Heureusement, il existe à toute époque des empêcheurs de tourner en rond. Au XVIe siècle, en particulier, des voix dissidentes s'élèvent : non, la plante n'est pas sage. Nous ferions bien d'en prendre de la graine.

Auteur: Giard Agnes

Info: 4 janvier 2016

[ historique ] [ Grèce antique ]

 

Commentaires: 0

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

addiction

Elle étudie la façon dont la toxicomanie interfère avec l'apprentissage dans le cerveau

Erin Calipari cherche à comprendre comment des drogues comme les opioïdes et la cocaïne modifient les circuits d'apprentissage et la neurochimie dans l'un des épicentres nationaux des troubles liés à la consommation de substances psychoactives et de la toxicomanie.

(Photo : La dopamine est mieux comprise comme une molécule " d’apprentissage " que comme une molécule de " plaisir ", déclare Erin. "Tout le monde doit avoir un neuromodulateur préféré dans le cerveau, et pour moi c'est la dopamine.")

À quoi ressemble l’apprentissage dans le cerveau et comment les drogues interfèrent-elles avec cela ?

Notre cerveau est programmé pour nous aider à voir les choses qui sont importantes et à y réagir. Cela détermine si nous devons refaire quelque chose ou non. Devons-nous déménager ou rester ? Est-ce bon ou mauvais? Est-ce quelque chose auquel je dois faire attention ?

Les drogues convainquent notre cerveau : " Oui, c’est important. C’est quelque chose que nous devons refaire. Les drogues déterminent non seulement les décisions concernant la drogue elle-même, mais également les décisions concernant les stimuli non médicamenteux présents dans notre environnement. Elles modifient la façon dont nous apprenons.

Comment ça marche au niveau moléculaire ?

Les médicaments comme les opioïdes agissent sur la dopamine. La plupart des gens considèrent la dopamine comme une " molécule du plaisir ", mais ce n’est pas tout. Oui, la dopamine est libérée par des stimuli enrichissants comme le chocolat ou le sucre. Mais Elle est également libérée par des stimuli aversifs comme le stress ou la douleur. Elle se déclenche lorsque les choses sont nouvelles ou différentes, qu'elles soient bonnes ou mauvaises. Et de cette façon, la dopamine est essentielle pour vous aider à apprendre.

Les drogues continuent essentiellement à stimuler la dopamine même lorsque les choses ne sont plus nouvelles ou différentes. Le cerveau continue de penser que quelque chose est important, vous signalant ainsi de continuer à y prêter attention. Mais si les drogues augmentent la dopamine sur le moment, leur consommation à long terme la diminue. Ainsi, avec la consommation croissante de drogues, il y a de moins en moins de dopamine dans le cerveau, ce qui signifie que vous avez du mal à apprendre quelque chose de nouveau.

La dopamine doit-elle être redéfinie comme une molécule " d’apprentissage " plutôt que comme une molécule de " plaisir " ?

Oui. Comprendre la dopamine en tant que molécule qui détermine l’efficacité de notre apprentissage est beaucoup plus précis.

Comment étudiez-vous ce système compliqué ?

Dans mon laboratoire, nous utilisons différentes stratégies pour enregistrer et manipuler différentes cellules du cerveau afin d’essayer de déterminer quelles cellules et quels circuits nous aident à prendre des décisions adaptatives. Et puis, une fois que nous avons identifié ces circuits, nous y allons et disons : Comment l'exposition aux drogues change-t-elle le fonctionnement du système ? Nous effectuons ce travail au niveau physiologique et épigénétique. L’objectif est de comprendre la biologie fondamentale – comment les médicaments détournent les circuits – et ensuite de déterminer si nous pouvons inverser le processus. Nous pouvons utiliser les outils CRISPR*, par exemple, pour inverser une partie de la plasticité de cellules cérébrales spécifiques.

Comprendre le fonctionnement de la dopamine peut-il éventuellement nous aider à développer des traitements contre la dépendance ?

Comprendre ce que fait la dopamine pour aider le cerveau à apprendre est vraiment important. Mais ce sera très difficile à cibler. Vous ne pouvez pas simplement bloquer la dopamine : si vous le faites, les gens ne pourront plus bouger, ils ne pourront plus prêter attention à quoi que ce soit. De nombreux travaux sont en cours sur différentes manières d'affiner le système dopaminergique au lieu de simplement l'activer ou le désactiver. Je pense que c'est ce que nous allons devoir faire.

Qu'est-ce que ça fait de travailler en tant que chercheur en toxicomanie dans l'un des épicentres de la toxicomanie ?

Nashville est mauvais. Au plus fort de l’épidémie d’opioïdes, le Tennessee avait l’un des taux de prescriptions d’opioïdes les plus élevés. Ces dernières années, ce chiffre a diminué, mais pas le problème des opioïdes. Et il ne s’agit pas uniquement d’opioïdes pour nous ; la méthamphétamine est également un problème important. Vanderbilt se trouve donc dans cet espace unique en tant que l’un des plus grands hôpitaux de recherche de la région, au cœur des troubles liés à l’usage de ces substances.

Parfois, il est épuisant de ne pas pouvoir résoudre sa dépendance. C'est écrasant dans un sens pas sympa. Parfois, c'est triste de parler à des personnes qui souffrent de troubles liés à l'usage de substances, et je ne sais pas comment les aider. Elles me posent des questions, mais si je suis experte des changements neurobiologiques spécifiques qui se produisent il m’est difficile de comprendre l’impact de ce trouble sur la vie quotidienne d’un individu puisque je ne l’ai pas vécu personnellement.

Sommes-nous sur le point de comprendre et, à terme, de trouver un remède à la dépendance ?

Guérir de la dépendance est difficile car la dépendance n’est pas une maladie uniforme. Certaines personnes souffrant de dépendance souffrent de troubles comorbides comme l’anxiété et la dépression. Certaines personnes prennent des drogues pour éviter la douleur. Certaines personnes ont un comportement compulsif, d’autres non.

Il sera essentiel de comprendre ce qui est similaire et différent dans le cerveau des individus présentant chacun de ces symptômes uniques pour comprendre comment aborder le traitement en premier lieu. Dans mon laboratoire, par exemple, nous étudions les différences entre les hommes et les femmes.

Qu'avez-vous découvert ?

Lorsque l’on examine les raisons pour lesquelles les gens consomment de la drogue, les femmes sont plus susceptibles de déclarer qu’elles en prennent pour éviter ou échapper à des conséquences négatives, comme le stress et l’anxiété. Les hommes sont plus susceptibles de consommer des drogues de manière impulsive, de planer et de sortir avec des amis. Les deux sexes consomment des drogues et un certain pourcentage d’entre eux développeront un trouble lié à l’usage de substances. Mais ils le font pour différentes raisons.

Les hormones ont beaucoup à voir avec cela. Nous avons découvert que l'estradiol, une hormone ovarienne qui circule avec le cycle menstruel, modifie la façon dont la nicotine agit dans le cerveau en modifiant les fonctions de ses récepteurs.

Nous avons également constaté que si l’on donne aux animaux un accès illimité aux drogues, les mâles et les femelles consomment la même quantité de drogues et leur comportement semble identique. Mais lorsque nous avons examiné les modifications apportées aux protéines de leur cerveau, les hommes et les femmes étaient totalement différents. Beaucoup de ces protéines ont des fonctions cellulaires similaires. Nous pensons que ce médicament augmente la dopamine chez les hommes et les femmes et détermine le comportement de la même manière, mais les voies moléculaires utilisées par chaque sexe sont très différentes.

Pourquoi les cerveaux de sexes différents emprunteraient-ils des chemins différents pour arriver au même point ?

Si vous aviez un système dans lequel vous avez besoin d’un neurone pour coder une information, ce système serait susceptible de tomber en panne. Tout devrait fonctionner parfaitement à chaque fois pour que vous puissiez naviguer dans l'environnement. Mais le cerveau comporte de nombreuses redondances, ce qui signifie que vous n’avez pas besoin que tout fonctionne parfaitement. Il existe de nombreuses façons d’arriver au même but. La raison pour laquelle les mâles et les femelles ont des manières différentes de coder leurs comportements est probablement basée sur l'évolution et la survie de notre espèce.

Cela doit être un domaine difficile dans lequel travailler. Qu'est-ce qui vous motive ?

Ce qui me préoccupe chaque jour, c’est que ce sont des questions importantes. Apprendre la prochaine chose et résoudre des problèmes difficiles est en soi très satisfaisant. Ensuite, lorsque vous respirez, prenez du recul et réalisez que les problèmes difficiles que vous résolvez ont vraiment un impact sur les gens, cela rend le tout encore plus significatif. Mais ma véritable motivation réside dans le mentorat de la prochaine génération. Lorsque je me suis lancé dans la recherche, mon objectif était d’influencer le plus de personnes possible. Je pensais y parvenir en découvrant quelque chose d'important et en changeant la société, ce qui est évidemment le but ultime. Mais ensuite, quand je suis arrivée ici et que j'ai installé mon laboratoire, j'ai réalisé que ce qu'on fait, c'est apprendre aux étudiants qu'ils peuvent faire ce travail. Leur permettre de découvrir ce pour quoi ils sont bons et ce qu'ils aiment me permet de continuer, même lorsque la science ne va pas toujours comme je le souhaite.

Vous êtes un peu comme l'entraîneur de votre propre équipe.

Lorsque vous finissez par diriger un laboratoire, vous réalisez qu’il s’agit d’une grande partie de la science, mais aussi d’une grande partie de la non-science. Il s'agit d'amener les gens à travailler ensemble et de créer l'environnement approprié pour chaque individu, ce qui peut s'avérer difficile. C'est comme constituer une équipe. S'ils travaillent ensemble, c'est moins difficile pour chacun. Et si vous le faites correctement, alors tout le monde y gagne.

Vous défendez également les femmes scientifiques. D’où vient cette motivation ?

Personne dans ma famille n’avait de diplôme d’études supérieures avant moi. Parce que mon père est sportif, l'accent n'était pas mis sur les études. Ensuite, je me suis retrouvé dans un espace dans lequel – je ne veux pas dire que je n’avais rien à faire, mais j’étais entouré d’un groupe de personnes qui, à mon avis, étaient plus intelligentes que moi. Ils savaient ce qu'ils faisaient. Ils savaient quel chemin ils étaient censés emprunter.  Heureusement j’ai eu des mentors extraordinaires qui m’ont aidé à rester sur un chemin que je ne connaissais pas. Et puis, en vieillissant, j’ai commencé à réaliser que ma place était ici. J'étais aussi intelligente que les gens autour de moi. Cela seul m’a fait réaliser à quel point il est important que les gens se sentent à leur place.

Au lieu de demander aux femmes d'agir comme des hommes pour s'intégrer dans un système construit pour les hommes, peut-être devrions-nous changer le système pour renforcer les éléments qui nous manquent, c'est-à-dire les éléments que les femmes apportent à la table : la façon dont elles naviguent dans le monde, comment elles perçoivent les choses, comment elles accompagnent les étudiants. Nous bénéficions énormément de la création d’un espace pour les femmes.

Vous avez fait du sport toute votre vie, y compris le basket-ball à l'université. Pensez-vous que cela a eu une influence sur votre carrière aujourd’hui ? 

Les choses les plus importantes que l’on apprend dans le sport sont comment se dépasser pour s’améliorer chaque jour, comment se remettre d’un échec et comment compter sur ses coéquipiers. Quand j'étais plus jeune, ces expériences m'ont appris à venir travailler après qu'une expérience n'ait pas fonctionné et à demander de l'aide lorsque j'en avais besoin.

Durant mon entraînement, j’étais l’athlète qui jouait à un jeu. Cependant, lorsque je suis devenu professeur, je suis tout d’un coup devenu entraîneur. Mon travail est différent maintenant. Il se concentre sur la façon dont je peux amener mon équipe à s’améliorer. Je dois identifier les points forts de chacun et les mettre en mesure de réussir. Je suis également là pour les aider à combler les lacunes avec d’excellents coéquipiers qui sont bons dans des domaines pour lesquels ils ne sont peut-être pas bons. Le sport m'a donné les compétences nécessaires pour me concentrer sur le travail acharné et la motivation, et m'a donné un cadre pour créer une équipe efficace et la motiver à donner le meilleur d'elle-même.

Votre père, John Calipari , est un entraîneur de basket-ball professionnel. Était-il un mentor pour vous ?

Il était un mentor extraordinaire, mais plus par les choses qu'il faisait que par les choses qu'il disait. Quand j'étais au collège, il a été viré. Le regarder se faire virer, puis revenir et dire : " Vous savez quoi, tout va bien ; Je vais me lever et recommencer " – c'était vraiment important pour moi de réaliser que même lorsque les choses semblent être d'énormes échecs, c'est parfois le début de quelque chose de nouveau.

Auteur: Internet

Info: Quanta Magazine, Yasemin Saplakoglu, 7 décembre 2023 *système simple, rapide et efficace pour couper l'ADN à un endroit précis du génome, dans n'importe quelle cellule.

[ accoutumance ] [ femmes-hommes ] [ éducation ] [ dépaysement ] [ ajustement ]

 

Commentaires: 0

Ajouté à la BD par miguel

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel

aliénisme

La cause de la dépression n’est probablement pas celle que vous pensez

La dépression a souvent été imputée à de faibles niveaux de sérotonine dans le cerveau. Cette réponse est insuffisante, mais des alternatives apparaissent et modifient notre compréhension de la maladie.

Les gens pensent souvent savoir ce qui cause la dépression chronique. Des enquêtes indiquent que plus de 80 % de la population attribue la responsabilité à un " déséquilibre chimique " dans le cerveau. Cette idée est répandue dans la psychologie populaire et citée dans des documents de recherche et des manuels de médecine. L'écoute de Prozac, un livre qui décrit la valeur révolutionnaire du traitement de la dépression avec des médicaments visant à corriger ce déséquilibre, a passé des mois sur la liste des best-sellers du New York Times.

La substance chimique cérébrale déséquilibrée en question est la sérotonine, un neurotransmetteur important aux effets légendaires de " bien-être ". La sérotonine aide à réguler les systèmes cérébraux qui contrôlent tout, de la température corporelle au sommeil, en passant par la libido et la faim. Depuis des décennies, il est également présenté comme le produit pharmaceutique le plus efficace dans la lutte contre la dépression. Les médicaments largement prescrits comme le Prozac (fluoxétine) sont conçus pour traiter la dépression chronique en augmentant les niveaux de sérotonine.

Pourtant, les causes de la dépression vont bien au-delà de la carence en sérotonine. Les études cliniques ont conclu à plusieurs reprises que le rôle de la sérotonine dans la dépression avait été surestimé. En effet, l’ensemble de la théorie du déséquilibre chimique pourrait être erroné, malgré le soulagement que le Prozac semble apporter à de nombreux patients.

Une revue de la littérature parue dans Molecular Psychiatry en juillet a sonné le glas le plus récent et peut-être le plus fort de l’hypothèse de la sérotonine, du moins dans sa forme la plus simple. Une équipe internationale de scientifiques dirigée par Joanna Moncrieff de l'University College London a examiné 361 articles dans six domaines de recherche et en a soigneusement évalué 17. Ils n’ont trouvé aucune preuve convaincante que des niveaux plus faibles de sérotonine provoquaient ou étaient même associés à la dépression. Les personnes souffrant de dépression ne semblaient pas avoir une activité sérotoninergique inférieure à celle des personnes non atteintes. Les expériences dans lesquelles les chercheurs abaissaient artificiellement les niveaux de sérotonine des volontaires n’entraînaient pas systématiquement une dépression. Les études génétiques semblaient également exclure tout lien entre les gènes affectant les niveaux de sérotonine et la dépression, même lorsque les chercheurs essayaient de considérer le stress comme un cofacteur possible.

" Si vous pensez toujours qu'il s'agissait simplement d'un déséquilibre chimique de la sérotonine, alors oui, c'est assez accablant", a déclaré Taylor Braund , neuroscientifique clinicien et chercheur postdoctoral au Black Dog Institute en Australie, qui n'a pas participé à l'étude. nouvelle étude. (" Le chien noir " était le terme utilisé par Winston Churchill pour désigner ses propres humeurs sombres, que certains historiens pensent être une dépression.)

La prise de conscience que les déficits de sérotonine en eux-mêmes ne provoquent probablement pas la dépression a amené les scientifiques à se demander ce qui pouvait en être la cause. Les faits suggèrent qu’il n’y a peut-être pas de réponse simple. En fait, cela amène les chercheurs en neuropsychiatrie à repenser ce que pourrait être la dépression.

Traiter la mauvaise maladie

L’intérêt porté à la sérotonine dans la dépression a commencé avec un médicament contre la tuberculose. Dans les années 1950, les médecins ont commencé à prescrire de l’iproniazide, un composé développé pour cibler la bactérie Mycobacterium tuberculosis vivant dans les poumons. Le médicament n’était pas particulièrement efficace pour traiter les infections tuberculeuses, mais il a béni certains patients avec un effet secondaire inattendu et agréable. "Leur fonction pulmonaire et tout le reste ne s'améliorait pas beaucoup, mais leur humeur avait tendance à s'améliorer", a déclaré Gerard Sanacora, psychiatre clinicien et directeur du programme de recherche sur la dépression à l'Université de Yale.

(Photo : Pour évaluer les preuves selon lesquelles les déséquilibres en sérotonine provoquent la dépression, la chercheuse en psychiatrie Joanna Moncrieff de l'University College London a organisé une récapitulation qui a examiné des centaines d'articles dans six domaines de recherche.) 

Perplexes face à ce résultat, les chercheurs ont commencé à étudier le fonctionnement de l'iproniazide et des médicaments apparentés dans le cerveau des rats et des lapins. Ils ont découvert que les médicaments empêchaient le corps des animaux d'absorber des composés appelés amines, parmi lesquels se trouve la sérotonine, un produit chimique qui transmet les messages entre les cellules nerveuses du cerveau.

Plusieurs psychologues éminents, parmi lesquels les regrettés cliniciens Alec Coppen et Joseph Schildkraut, se sont emparés de l'idée que la dépression pourrait être causée par un déficit chronique de sérotonine dans le cerveau. L’hypothèse de la dépression liée à la sérotonine a ensuite inspiré des décennies de développement de médicaments et de recherche neuroscientifique. À la fin des années 1980, cela a conduit à l’introduction de médicaments inhibiteurs sélectifs du recaptage de la sérotonine (ISRS), comme le Prozac. (Ces médicaments augmentent les niveaux d'activité de la sérotonine en ralentissant l'absorption du neurotransmetteur par les neurones.)  Aujourd'hui, l'hypothèse de la sérotonine reste l'explication la plus souvent donnée aux patients souffrant de dépression lorsqu'on leur prescrit des ISRS.

Mais des doutes sur le modèle sérotoninergique circulaient au milieu des années 1990. Certains chercheurs ont remarqué que les ISRS ne répondaient souvent pas aux attentes et n’amélioraient pas de manière significative les performances de médicaments plus anciens comme le lithium. " Les études ne concordaient pas vraiment ", a déclaré Moncrieff.

Au début des années 2000, peu d’experts pensaient que la dépression était causée uniquement par un manque de sérotonine, mais personne n’a jamais tenté une évaluation complète de ces preuves. Cela a finalement incité Moncrieff à organiser une telle étude, " afin que nous puissions avoir une idée si cette théorie était étayée ou non ", a-t-elle déclaré.

Elle et ses collègues ont découvert que ce n’était pas le cas, mais l’hypothèse de la sérotonine a toujours des adeptes. En octobre dernier – quelques mois seulement après la parution de leur étude – un article publié en ligne dans Biological Psychiatry prétendait offrir une validation concrète de la théorie de la sérotonine. D'autres chercheurs restent cependant sceptiques, car l'étude n'a porté que sur 17 volontaires. Moncrieff a rejeté les résultats comme étant statistiquement insignifiants.

Un déséquilibre chimique différent

Bien que les niveaux de sérotonine ne semblent pas être le principal facteur de dépression, les ISRS montrent une légère amélioration par rapport aux placebos dans les essais cliniques. Mais le mécanisme à l’origine de cette amélioration reste insaisissable. "Ce n'est pas parce que l'aspirine soulage les maux de tête que les déficits en aspirine dans le corps provoquent des maux de tête", a déclaré John Krystal , neuropharmacologue et directeur du département de psychiatrie de l'Université de Yale. " Comprendre pleinement comment les ISRS produisent des changements cliniques est encore un travail en cours. "

Les spéculations sur la source de ce bénéfice ont donné naissance à des théories alternatives sur les origines de la dépression.

Malgré le terme " sélectif " dans leur nom, certains ISRS modifient les concentrations relatives de produits chimiques autres que la sérotonine. Certains psychiatres cliniciens pensent que l’un des autres composés pourrait être la véritable force induisant ou soulageant la dépression. Par exemple, les ISRS augmentent les niveaux circulants de tryptophane, un acide aminé, un précurseur de la sérotonine qui aide à réguler les cycles de sommeil. Au cours des 15 dernières années, ce produit chimique est devenu un candidat sérieux pour prévenir la dépression. "Les études sur la déplétion en tryptophane fournissent des preuves assez solides", a déclaré Michael Browning , psychiatre clinicien à l'Université d'Oxford.

Un certain nombre d' études sur l'épuisement du tryptophane ont révélé qu'environ les deux tiers des personnes récemment remises d'un épisode dépressif rechuteront lorsqu'elles suivront un régime artificiellement pauvre en tryptophane. Les personnes ayant des antécédents familiaux de dépression semblent également vulnérables à une carence en tryptophane. Et le tryptophane a pour effet secondaire d’augmenter les niveaux de sérotonine dans le cerveau.

Des preuves récentes suggèrent également que le tryptophane et la sérotonine pourraient contribuer à la régulation des bactéries et autres microbes se développant dans l’intestin, et que les signaux chimiques émis par ce microbiote pourraient affecter l’humeur. Bien que les mécanismes exacts liant le cerveau et l’intestin soient encore mal compris, ce lien semble influencer le développement du cerveau. Cependant, comme la plupart des études sur la déplétion en tryptophane ont jusqu’à présent été limitées, la question est loin d’être réglée.

D'autres neurotransmetteurs comme le glutamate, qui joue un rôle essentiel dans la formation de la mémoire, et le GABA, qui empêche les cellules de s'envoyer des messages, pourraient également être impliqués dans la dépression, selon Browning. Il est possible que les ISRS agissent en modifiant les quantités de ces composés dans le cerveau.

Moncrieff considère la recherche d'autres déséquilibres chimiques à l'origine de la dépression comme une tentative de changement de marque plutôt que comme une véritable nouvelle ligne de recherche. " Je dirais qu’ils souscrivent toujours à quelque chose comme l’hypothèse de la sérotonine ", a-t-elle déclaré – l’idée selon laquelle les antidépresseurs agissent en inversant certaines anomalies chimiques dans le cerveau. Elle pense plutôt que la sérotonine a des effets si répandus dans le cerveau que nous pourrions avoir du mal à dissocier son effet antidépresseur direct des autres changements dans nos émotions ou sensations qui remplacent temporairement les sentiments d’anxiété et de désespoir.

Réponses génétiques

Toutes les théories sur la dépression ne reposent pas sur des déficits en neurotransmetteurs. Certains recherchent des coupables au niveau génétique.

Lorsque la première ébauche de séquence à peu près complète du génome humain a été annoncée en 2003, elle a été largement saluée comme le fondement d’une nouvelle ère en médecine. Au cours des deux décennies qui ont suivi, les chercheurs ont identifié des gènes à l’origine d’un large éventail de troubles, dont environ 200 gènes associés à un risque de dépression. (Plusieurs centaines de gènes supplémentaires ont été identifiés comme pouvant augmenter le risque.)

"Il est vraiment important que les gens comprennent qu'il existe une génétique à la dépression", a déclaré Krystal. "Jusqu'à très récemment, seuls les facteurs psychologiques et environnementaux étaient pris en compte."

Notre connaissance de la génétique est cependant incomplète. Krystal a noté que des études sur des jumeaux suggèrent que la génétique pourrait expliquer 40 % du risque de dépression. Pourtant, les gènes actuellement identifiés ne semblent expliquer qu’environ 5 %.

De plus, le simple fait d’avoir les gènes de la dépression ne garantit pas nécessairement qu’une personne deviendra déprimée. Les gènes doivent également être activés d’une manière ou d’une autre, par des conditions internes ou externes.

"Il existe parfois une fausse distinction entre les facteurs environnementaux et les facteurs génétiques", a déclaré Srijan Sen, neuroscientifique à l'Université du Michigan. "Pour les caractères d'intérêt les plus courants, les facteurs génétiques et environnementaux jouent un rôle essentiel."

Le laboratoire de Sen étudie les bases génétiques de la dépression en cartographiant le génome des sujets et en observant attentivement comment les individus présentant des profils génétiques différents réagissent aux changements dans leur environnement. (Récemment, ils se sont penchés sur le stress provoqué par la pandémie de Covid-19.) Différentes variations génétiques peuvent affecter la réaction des individus à certains types de stress, tels que le manque de sommeil, la violence physique ou émotionnelle et le manque de contact social, en devenant déprimé.

Les influences environnementales comme le stress peuvent aussi parfois donner lieu à des changements " épigénétiques " dans un génome qui affectent l’expression ultérieure des gènes. Par exemple, le laboratoire de Sen étudie les changements épigénétiques dans les capuchons situés aux extrémités des chromosomes, appelés télomères, qui affectent la division cellulaire. D'autres laboratoires examinent les modifications des étiquettes chimiques appelées groupes de méthylation qui peuvent activer ou désactiver les gènes. Les changements épigénétiques peuvent parfois même se transmettre de génération en génération. "Les effets de l'environnement sont tout aussi biologiques que les effets des gènes", a déclaré Sen. " Seule la source est différente. "

Les études de ces gènes pourraient un jour aider à identifier la forme de traitement à laquelle un patient répondrait le mieux. Certains gènes peuvent prédisposer un individu à de meilleurs résultats avec une thérapie cognitivo-comportementale, tandis que d'autres patients pourraient mieux s'en sortir avec un ISRS ou de la kétamine thérapeutique. Cependant, il est beaucoup trop tôt pour dire quels gènes répondent à quel traitement, a déclaré Sen.

Un produit du câblage neuronal

Les différences dans les gènes d’une personne peuvent la prédisposer à la dépression ; il en va de même pour les différences dans le câblage neuronal et la structure de leur cerveau. De nombreuses études ont montré que les individus diffèrent dans la manière dont les neurones de leur cerveau s’interconnectent pour former des voies fonctionnelles, et que ces voies influencent la santé mentale.

Lors d'une récente conférence, une équipe dirigée par Jonathan Repple, chercheur en psychiatrie à l'Université Goethe de Francfort, en Allemagne, a décrit comment elle a scanné le cerveau de volontaires gravement déprimés et a découvert qu'ils différaient structurellement de ceux d'un groupe témoin non déprimé. Par exemple, les personnes souffrant de dépression présentaient moins de connexions au sein de la " substance blanche " des fibres nerveuses de leur cerveau. (Cependant, il n'y a pas de seuil de matière blanche pour une mauvaise santé mentale : Repple note que vous ne pouvez pas diagnostiquer la dépression en scannant le cerveau de quelqu'un.)

Après que le groupe déprimé ait subi six semaines de traitement, l'équipe de Repple a effectué une autre série d'échographies cérébrales. Cette fois, ils ont constaté que le niveau général de connectivité neuronale dans le cerveau des patients déprimés avait augmenté à mesure que leurs symptômes diminuaient. Pour obtenir cette augmentation, le type de traitement que les patients recevaient ne semblait pas avoir d'importance, du moment que leur humeur s'améliorait.

Une explication possible de ce changement est le phénomène de neuroplasticité. "La neuroplasticité signifie que le cerveau est réellement capable de créer de nouvelles connexions, de modifier son câblage", a déclaré Repple. Si la dépression survient lorsqu'un cerveau a trop peu d'interconnexions ou en perd certaines, alors exploiter les effets neuroplastiques pour augmenter l'interconnexion pourrait aider à améliorer l'humeur d'une personne.

Inflammation chronique

Repple prévient cependant qu'une autre explication des effets observés par son équipe est également possible : peut-être que les connexions cérébrales des patients déprimés ont été altérées par l'inflammation. L'inflammation chronique entrave la capacité du corps à guérir et, dans le tissu neuronal, elle peut progressivement dégrader les connexions synaptiques. On pense que la perte de ces connexions contribue aux troubles de l’humeur.

De bonnes preuves soutiennent cette théorie. Lorsque les psychiatres ont évalué des populations de patients souffrant de maladies inflammatoires chroniques comme le lupus et la polyarthrite rhumatoïde, ils ont constaté que " tous présentaient des taux de dépression supérieurs à la moyenne ", a déclaré Charles Nemeroff, neuropsychiatre à l'Université du Texas Austin. Bien sûr, savoir qu'ils souffrent d'une maladie dégénérative incurable peut contribuer aux sentiments de dépression du patient, mais les chercheurs soupçonnent que l'inflammation elle-même est également un facteur.

Des chercheurs médicaux ont découvert que provoquer une inflammation chez certains patients peut déclencher une dépression. L'interféron alpha, qui est parfois utilisé pour traiter l'hépatite C chronique et d'autres affections, provoque une réponse inflammatoire majeure dans tout le corps en inondant le système immunitaire de protéines appelées cytokines, des molécules qui facilitent les réactions allant d'un léger gonflement au choc septique. L’afflux soudain de cytokines inflammatoires entraîne une perte d’appétit, de la fatigue et un ralentissement de l’activité mentale et physique – autant de symptômes d’une dépression majeure. Les patients prenant de l’interféron déclarent souvent se sentir soudainement, parfois sévèrement, déprimés.

Si une inflammation chronique négligée est à l’origine de la dépression chez de nombreuses personnes, les chercheurs doivent encore déterminer la source de cette inflammation. Les maladies auto-immunes, les infections bactériennes, le stress élevé et certains virus, dont celui qui cause le Covid-19, peuvent tous induire des réponses inflammatoires persistantes. L’inflammation virale peut s’étendre directement aux tissus du cerveau. La mise au point d’un traitement anti-inflammatoire efficace contre la dépression peut dépendre de la connaissance de laquelle de ces causes est à l’œuvre.

On ne sait pas non plus si le simple traitement de l’inflammation pourrait suffire à soulager la dépression. Les cliniciens tentent encore de déterminer si la dépression provoque une inflammation ou si l’inflammation conduit à la dépression. "C'est une sorte de phénomène de poule et d'œuf", a déclaré Nemeroff.

La théorie du parapluie

De plus en plus, certains scientifiques s’efforcent de recadrer le terme " dépression " pour en faire un terme générique désignant un ensemble de pathologies connexes, tout comme les oncologues considèrent désormais le " cancer " comme faisant référence à une légion de tumeurs malignes distinctes mais similaires. Et tout comme chaque cancer doit être prévenu ou traité de manière adaptée à son origine, les traitements de la dépression peuvent devoir être adaptés à chaque individu. 

S’il existe différents types de dépression, ils peuvent présenter des symptômes similaires – comme la fatigue, l’apathie, les changements d’appétit, les pensées suicidaires et l’insomnie ou un sommeil excessif – mais ils peuvent résulter de mélanges complètement différents de facteurs environnementaux et biologiques. Les déséquilibres chimiques, les gènes, la structure cérébrale et l’inflammation pourraient tous jouer un rôle à des degrés divers. "Dans cinq ou dix ans, nous ne parlerons plus de la dépression comme d'un phénomène unitaire", a déclaré Sen.

Pour traiter efficacement la dépression, les chercheurs en médecine devront peut-être développer une compréhension nuancée de la manière dont elle peut survenir. Nemeroff s'attend à ce qu'un jour, la référence en matière de soins ne soit pas seulement un traitement, mais un ensemble d'outils de diagnostic capables de déterminer la meilleure approche thérapeutique pour la dépression d'un patient individuel, qu'il s'agisse d'une thérapie cognitivo-comportementale, de changements de style de vie, de neuromodulation, d'évitement. déclencheurs génétiques, thérapie par la parole, médicaments ou une combinaison de ceux-ci.

Cette prédiction pourrait frustrer certains médecins et développeurs de médicaments, car il est beaucoup plus facile de prescrire une solution universelle. Mais " apprécier la véritable complexité de la dépression nous amène sur un chemin qui, en fin de compte, aura le plus d’impact ", a déclaré Krystal. Dans le passé, dit-il, les psychiatres cliniciens étaient comme des explorateurs qui atterrissaient sur une petite île inconnue, installaient leur campement et s’installaient confortablement. "Et puis nous avons découvert qu'il y avait tout un continent énorme."



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Joanna Thompson, 26 janvier 2023

[ corps-esprit ] [ thérapie holistique idiosyncrasique ]

 

Commentaires: 0

Ajouté à la BD par miguel