Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 426
Temps de recherche: 0.0696s

physique fondamentale

Pourquoi les particules qui collisionnent révèlent la réalité 

Une grande partie de ce que les physiciens savent des lois fondamentales de la nature vient de la construction de machines destinées à écraser les particules entre elles.

Les physiciens ont commencé à développer des collisionneurs de particules à la suite de révélations selon lesquelles l’univers ne se résume pas à des atomes. Ernest Rutherford a perçu l'intérieur de l'atome lors de l'une des premières expériences de proto-collisionneur en 1909. Lui et son élève ont placé une matière radioactive derrière un bouclier en plomb percé d'un trou, de sorte qu'un flux de particules alpha (maintenant connues sous le nom de noyaux d'hélium) ) puisse passer à travers le trou. Lorsqu’ils ont projeté ce faisceau de particules sur une fine feuille d’or, ils ont observé qu’une particule sur 20 000 rebondissait directement vers l’arrière. Rutherford l'a comparé à un obus d'artillerie qui se refléterait sur une feuille de papier de soie. Les physiciens avaient découvert que les atomes d'or étaient pour la plupart constitués d'espace vide, mais que les particules alpha se dispersaient occasionnellement hors des noyaux denses et chargés positivement des atomes.

Deux des étudiants de Rutherford, John Cockcroft et Ernest Walton, ont ensuite assemblé et exploité le premier véritable collisionneur de particules en 1932. Ils ont utilisé un champ électrique pour accélérer les protons et les transformer en atomes de lithium avec suffisamment d'énergie pour briser les atomes de lithium en deux, divisant l'atome pour la première fois.

Au cours des décennies suivantes, les physiciens ont construit un défilé de collisionneurs de particules de plus en plus performants. Ils ont augmenté la densité des particules du projectile, ajouté des aimants supraconducteurs pour mieux les diriger et se sont offert plus de pistes en concevant des collisionneurs circulaires. Pour produire des feux d’artifice plus violents, ils ont brisé des faisceaux de particules circulant dans des directions opposées.

De nombreuses innovations technologiques visaient à produire des collisions à plus haute énergie pour générer des variétés de particules plus riches. Toute la matière que vous avez vue ou touchée est composée de seulement trois particules légères et fondamentales : des électrons et deux types de quarks. La nature laisse aussi entrevoir l'existence de plus d'une douzaine de particules élémentaires plus lourdes, mais seulement pour un instant, avant qu'elles ne se transforment en particules légères et stables. Pour savoir quelles particules massives peuvent exister, les physiciens exploitent l'interchangeabilité de la matière et de l'énergie découverte par Albert Einstein, exprimée dans sa célèbre équation E = mc 2. En générant des collisions plus énergétiques, ils virent émerger des particules plus lourdes.

Une autre façon de voir les choses est que les collisions à haute énergie s’enfoncent plus profondément dans le monde subatomique. Toutes les particules quantiques ont des propriétés ondulatoires, telles que les longueurs d'onde. Et leurs longueurs d’onde déterminent ce avec quoi ils peuvent interagir. Les ondes sonores peuvent contourner les murs parce qu'elles mesurent des mètres en longueur, par exemple, tandis que les ondes lumineuses sont arrêtées par tout ce qui est plus grand que leur longueur d'onde de quelques centaines de nanomètres. Les ondes incroyablement minuscules impliquées dans les collisions à haute énergie sont sensibles à des obstacles quantiques tout aussi minuscules. De cette manière, les énergies plus élevées permettent aux physiciens d’explorer les règles de la réalité à des échelles de plus en plus petites.

Suivant l’exemple de Rutherford et de ses étudiants, les chercheurs ont continué leurs explorations à un rythme effréné. L'énergie des collisions de particules a augmenté de 10 fois tous les six à huit ans pendant la majeure partie d'un siècle, ce qui correspond presque au rythme de la loi de Moore pour les puces informatiques. Ces progrès ont culminé avec la construction du Grand collisionneur de hadrons (LHC) en Europe, une piste souterraine circulaire de 27 kilomètres de circonférence qui écrase des protons à des énergies environ 20 millions de fois supérieures à celles utilisées par Cockcroft et Walton pour diviser l'atome. C’est au LHC en 2012 que les physiciens ont découvert le boson de Higgs, une particule lourde qui donne de la masse à d’autres particules fondamentales. Le Higgs était la dernière pièce manquante du modèle standard de la physique des particules, un ensemble d'équations qui rend compte de toutes les particules élémentaires connues et de leurs interactions. 

Quoi de neuf et remarquable

Le LHC, qui a entamé une nouvelle période d'exploitation de six mois en avril, a consolidé le modèle standard avec la découverte du boson de Higgs. Mais ce qui n'a pas été découvert a laissé le domaine en crise. Pendant des décennies, de nombreux théoriciens des particules ont espéré qu'une nouvelle " supersymétrie “ entre les particules de matière et les particules de force serait observée afin de résoudre une énigme appelée " problème de la hiérarchie ", et aider ainsi à relier les forces quantiques et fournir un candidat pour les particules de ” matière noire » qui maintiennent les galaxies ensemble.

Mais le LHC n’a vu aucun signe des particules prédites par la supersymétrie et, en 2016, les partisans de la théorie ont reconnu que notre univers n’est pas supersymétrique comme ils le pensaient simplement. La même année, l'évocation d'une nouvelle particule s'est avérée être un mirage statistique, et les physiciens ont dû se rendre compte que le LHC ne découvrirait probablement aucun nouveau phénomène au-delà des particules du modèle standard - une situation parfois appelée "scénario du cauchemar" .

Sans indices indiquant l’existence de particules plus lourdes qui pourraient être évoquées dans des collisions à plus haute énergie, il est difficile de justifier la construction d’un autre collisionneur de particules encore plus grand, de plusieurs milliards de dollars. Certains insistent sur le fait que cela en vaut la peine, car il reste encore beaucoup à étudier sur le boson de Higgs, qui pourrait contenir des indices sur d'éventuelles entités plus lourdes situées hors de portée du LHC. Mais aucun indice - ni aucune entité - de cette nature n'est garanti.

Une proposition visant à construire un collisionneur de nouvelle génération au Japon est au point mort. L'Europe réfléchit à un successeur du LHC de 100 kilomètres, mais s'il est approuvé et financé, sa construction prendra tellement de temps que les étudiants diplômés d'aujourd'hui seront à la retraite depuis longtemps avant que ce nouveau LHC ne démarre.

Les physiciens des particules américains ont reçu des nouvelles optimistes en décembre dernier lorsqu'un comité gouvernemental a soutenu l'étude des perspectives quant à un collisionneur de muons . Les muons sont des versions plus volumineuses d'électrons qui seraient plus puissantes lors des collisions, tout en étant dépourvues de la sous-structure des protons, de sorte qu'un collisionneur de muons relativement petit pourrait produire des collisions propres et à haute énergie. Un collisionneur de muons de pointe pourrait s’insérer dans la structure d’une installation existante, le Fermi National Accelerator Laboratory dans l’Illinois, et pourrait donc être construit plus rapidement et à moindre coût. Le problème est que les muons se désintègrent en quelques microsecondes et que la technologie nécessaire pour créer et contrôler des faisceaux étroits de ceux-ci n'existe pas encore. Néanmoins, si le projet va de l'avant, les partisans espèrent qu'un tel dispositif pourrait être opérationnel au moment où les élèves de maternelle d'aujourd'hui commencent à obtenir leur doctorat.

En attendant, les physiciens n’ont d’autre choix que de proposer des expériences alternatives et de nouvelles façons de reconstituer les indices que les collisionneurs leur ont déjà fournis.  

 

Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 2 juin 2024

[ impasse ] [ historique ] [ vulgarisation ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

La  " marchandisation du sexe ", un concept pauvre

Condamnant le puritanisme des personnes qui assimilent les rencontres en ligne à un " marché sexuel ", le philosophe Richard Mèmeteau attaque : on ne va pas sur un site pour " acheter " de la " marchandise ", mais pour " jouer ". Jouer à quoi ?

Le 20 février 2016, l’animateur Thierry Ardisson invite une sexologue catholique, Thérèse Hargot, dans l’émission Salut les Terriens pour discuter, entre autres, des sex friends. Faussement ingénu, il met en cause les gays : "J’ai l’impression, moi, que c’est la sexualité des homosexuels qui a imprégné la sexualité des hétérosexuels. On a tous des potes homosexuels : pour eux, un coup pour un soir, ce n’est pas grave. Et maintenant c’est un peu pareil partout. C’est-à-dire que, chez les hétéros, y’a : “On baise sans sentiments, juste pour le plaisir de baiser. Thérèse Hargot, qui refuse de mordre à cet hameçon-là, préfère répondre : " Ce qui me gêne, c’est qu’à un moment on est dans l’instrumentalisation du corps de l’autre. Ce qui me gêne, c’est qu’on regarde l’autre comme un objet, et un objet sexuel. On n’est pas un objet, on est une personne humaine. Et là du coup y’a une atteinte à sa dignité."

Faire de l’autre un objet de désir : atteinte à la dignité ?

Dans un essai intitulé Sex Friends (Zone, 2019),

Richard Mèmeteau –professeur de philosophie et auteur de Pop culture (Zones, 2014) –, relate l'échange avec ironie : la sexologue a fait " claquer le concept kantien de dignité pile au bon moment ", dit-il. Dieu merci, grâce à elle, l'ordre moral est restauré. Mais n'est-il pas caricatural d'opposer strictement le plan cul à l'amour ?  Aujourd'hui, une partie significative des unions commence sur Internet, raconte la sociologue Marie Bergström (Les nouvelles lois de l'amour). Les changements intervenus dans la sexualité ne se réduisent pas à ce que les théories d'un libre marché pourraient en dire. Richard Mèmeteau défend lui aussi l'idée qu'on peut très bien apprécier et respecter quelqu'un avec qui on baise. Le sexe plan Q " zéro sentiment " ? Il n'y croit pas vraiment. " La sexualité se trouve toujours dans un entre-deux ".

La marchandisation du sexe : " une chimère "

S'appuyant sur l'idée qu'il existe un " continuum moral " entre l'amour sans sexe et le coït sans âme, le philosophe attaque. Il s'en prend tout d'abord aux concepteurs de dating app. Le site Adopteunmec, par exemple, " affiche un pictogramme où l'on voit un homme tomber dans un caddie poussé par une femme. " A priori, l'idée est bonne. En plantant un décor de supermarché autour des rencontres sexuelles, il s'agit de les dédramatiser : " on dépotentialise leurs enjeux moraux et on décomplexe les femmes qui seraient autrement réticentes à s'abonner à ce genre de sites : vous n'êtes pas des marchandises, mais des consommatrices. " Problème. Est-il valorisant pour une femme de traiter les hommes comme des produits en promotion ? Le seul et unique pouvoir qu'une femme puisse assumer est-il le " pouvoir d'achat " ? N'est-il pas énervant pour une femme d'être sans cesse assimilée à une obsédée… de shopping ?

Hypermarché de la drague " : une métaphore éculée

La métaphore marketing du supermarché est non seulement insultante pour l'esprit mais terriblement rabaissante pour les utilisateurs (hommes et femmes) du site. Le pire, c'est qu'elle conforte l'opinion négative qu'on peut avoir de la rencontre en ligne, assimilée à un " marché de la drague, miroir de notre consumérisme ". Richard Mèmeteau veut en finir avec cette croyance : " nous devrions être réticents à nous approprier cette rhétorique du marché. Contrairement à un marché, le choix de l'objet érotique ou amoureux n'est jamais unilatéral. L'autre n'est pas une tranche de jambon qu'on choisit chez le boucher. Il faut désirer, certes, mais aussi être désiré en retour. " La personne que l'on choisit sur un site peut très bien rejeter votre invitation. La rencontre n'est possible qu'à condition de se présenter et de séduire.

Il faut être deux pour danser le tango

Il est absurde d'assimiler les sexfriends à des " marchandises ". Pour Richard Mèmeteau, l'usage du lexique économique trahit une forme de " pauvreté intellectuelle ", car la réalité –dit-il– c'est que la drague en ligne ressemble beaucoup plus à un jeu vidéo en multijoueur qu'à un geste d'achat. D'abord, il faut s'identifier, ce qui revient à créer une sorte d'avatar, tout en sachant qu'un gros mensonge ne peut jamais vous mener très loin : " la rencontre réelle est le moment qui conditionne la vérité des échanges en ligne. Et elle arrive très vite. Un tiers des couples qui se sont formés sur les réseaux se sont vus après une semaine et deux tiers dans le mois. On pourrait être tenté de mentir dans la phase qui précède, de s'enjoliver pour permettre la rencontre, mais à quoi bon si celle-ci dévoile la supercherie ? ". Il s'agit donc de séduire, sans trop mentir. Tout un art.

On ne dialogue pas avec son jambon

Après avoir créé son profil, il faut –comme au théâtre– engager le dialogue. Or le dialogue suppose du talent. " Chaque geste ou dévoilement implique sa réciproque de la part de l'interlocuteur. On avance en coopérant, tour par tour, message par message. On veut savoir qui montre quelle envie, dévoile quelle photo, affiche quelle intention. " Bien sûr, cet univers de séduction repose en grande partie sur des enjeux sociaux : chacun cherche à obtenir un-e partenaire valorisant-e. " Les filles attendent notamment que les garçons aient accès à une voiture, qu'ils soient capables de dépenser de l'argent pour elles. Les femmes sont ainsi souvent accusées par leurs prétendants de jouer les gold diggers (chercheuses d'or) en se faisant inviter par des garçons. Mais ces éléments ne sont pas suffisants. " Les filles attendent surtout des garçons qu'ils soient populaires, beaux, gentils, cultivés et/ou qu'ils aient de la classe. Quand aux garçons, ils ont aussi des exigences, souvent similaires.

Séduire en ligne, tout un art

Les conditions à remplir pour être séduisant-e font l'objet d'un arbitrage complexe, non-réductible à la simple logique de la transaction économique. Les femmes ne cherchent pas forcément un homme riche, ni un faire-valoir symbolique, ni un mari protecteur. " Personne ne sait de façon objective qui est réellement intéressé par qui. Le jeu et la circulation de l'information ne sont pas aussi transparents qu'un marché ne le supposerait pour pouvoir établir une valeur d'échange. Les informations manqueront toujours pour pratiquer une séduction rationnelle. " Pour évaluer les personnes à qui on a affaire, les critères de classement sont établis sur une échelle de valeur parfaitement normative bien sûr, mais cette norme est brouillée par des stratégies qui consistent, notamment, à refuser tout investissement émotionnel.

Coup de foudre, coup de cul

Beaucoup de " joueurs " (hommes et femmes) affirment ou feignent ne rien vouloir d'autre qu'un " plan cul "… Même si le plan cul en question n'exclut pas l'espoir de s'attacher. " Il s'agit moins d'un modèle économique que d'un principe de pouvoir, conclut Richard Mèmeteau. En réalité, le dating a produit un jeu culturel qui a brouillé les effets de domination économique et les a fait passer au second plan. " Ce qui gouverne les relations maintenant (qu'elles soient sexuelles ou romantiques), ce n'est tant la logique mercantile que les règles d'un jeu délicat qui consiste à se chercher l'un l'autre – à l'aveugle –  pour faire avancer la partie à deux. Ces nouveaux scripts de rencontre présentent ceci de spécifique qu'ils dépassent le système classique d'opposition sexe/amour, donnant naissance à une forme inédite d'appariement : l'amitié sexuelle ?

Auteur: Giard Agnès

Info: Blog "Les 400 culs" 23 décembre 2019

[ libido ] [ ludiques ]

 

Commentaires: 0

Ajouté à la BD par prof gaillard

russie - occident

Publié il y a près d’un an, alors que l’invasion russe de l’Ukraine ne faisait que commencer, Le mage du Kremlin (Gallimard) a reçu à l’automne le prix de l’Académie française, et a manqué de très peu de remporter aussi le prix Goncourt.

Son auteur, Giuliano Da Empoli, Italo-suisse né en 1973, est le fils d’un conseiller politique blessé lors d’un attentat en 1986. Il a lui-même été conseiller politique pour Matteo Renzi. 

Politique-fiction

Depuis le succès de son livre, qui mêle politique et littérature, on voit régulièrement passer sa chevelure grisonnante sur les télévisions et les radios françaises. Avec son léger accent italien trainant, il y gratifie ses auditeurs de formules marquantes, comme, par exemple "j’ai l’habitude de dire que l’Italie est la Silicon Valley du populisme".

Le Russe Vladislav Sourkov, cofondateur du parti Russie unie, qui mena Vladimir Poutine au pouvoir, photographié ici en 2010. Photo : Wikimedia Commons.

L’ouvrage se penche sur un personnage énigmatique, Vadim Baranov, largement inspiré par Vladislav Sourkov, conseiller politique et idéologue de Vladimir Poutine depuis la fin des années 1990 jusqu’à sa prise de distance avec le Kremlin, en 2020. Au milieu des anciens du KGB, Sourkov, fan de John Lennon et du rappeur Tupac, détonnait quelque peu. En quelque sorte, il était l’un des derniers vestiges, sous l’ère Poutine, de la Russie hédoniste des années 1990, même s’il a lui aussi participé à la forte verticalisation du pouvoir. 

Un grand-père aristo, un père communiste

La part de fiction qu’ajoute Da Empoli semble se résumer à l’histoire d’amour compliquée de Baranov ("il n’existe pas une femme qui soit aussi précieuse que la vérité qu’elle nous révèle en nous faisant souffrir"), à sa solide culture classique, très française, pétrie de citations de Chamfort et de La Bruyère, et à sa généalogie. 

Baranov est le petit-fils d’un aristocrate excentrique, insolent à l’égard du pouvoir soviétique, qui "se serait fait pendre plutôt que de renoncer à un bon mot". Et le fils d’un apparatchik conformiste, qui a mené sa fronde à l’égard du paternel en adhérant totalement au régime communiste. "Je peux comprendre. C’est aussi une rébellion à sa façon. Quand tu grandis auprès d’un personnage tellement hors du commun, la seule révolte possible est le conformisme".

Quatre décennies de politique russe

Au tout début du roman, un narrateur français, de passage en Russie, échange avec un inconnu sur Twitter à coup d’allusions à Evgueni Zamiatine, auteur de science-fiction et compagnon de route très rapidement désillusionné de la Révolution de 1917. Un beau jour, il se laisse entrainer dans une grosse berline qui parcourt les kilomètres dans la forêt russe, avec une inquiétude montante au fil des heures : "La curiosité amusée qui m’avait habité jusque-là était en train de faire place à une certaine appréhension. En Russie, me disais-je, tout se passe en général très bien, mais quand les choses vont mal, elles vont vraiment très mal. À Paris, la pire chose qui puisse vous arriver c’est un restaurant surestimé, le regard méprisant d’une jolie fille, une amende. À Moscou, la gamme des expériences déplaisantes est considérablement plus vaste". Le narrateur se retrouve dans la riche demeure de Vadim Baranov et laisse débuter le long monologue de son hôte qui passe en revue quatre décennies de vie politique russe. Baranov raconte sa jeunesse soviétique et les paniers de victuailles réservés aux hauts fonctionnaires, puis la parenthèse libérale de la décennie 90, au cours de laquelle Baranov devient producteur d’une télévision plus trash encore que celle de l’Occident de la même époque, et l’ascension de Poutine, que l’oligarque Boris Berezovski vient dénicher dans les profondeurs du deep state. 

La première rencontre entre Poutine et Baranov, présentés l’un à l’autre par Berezovsky, est marquante : à ce moment-là, "le Tsar n’était pas encore le Tsar" ; c’est un fonctionnaire un peu terne, la main presque moite, à l’air un peu idiot. Bref, l’homme idéal selon Berezovsky (le vrai maître de la Russie de cette époque) pour donner un tour de vis au régime russe sans sacrifier pour autant les privilèges glanés par les oligarques. Avoir l’air un peu idiot n’a jamais été une mauvaise chose en politique : Louis-Napoléon Bonaparte avait volontiers joué ce jeu auprès des tenants de la droite de son époque, avant de ravir le pouvoir pendant plus de deux décennies. Juan Carlos avait également usé de la même stratégie auprès de Franco : "Faire l’idiot est une discipline fatigante, très dure pour les nerfs", confia-t-il plus tard. 

Berezovsky, capable, lui, de combiner à un haut niveau "intelligence pointue" et "stupidité abyssale", s’aperçoit mais un peu tard qu’il ne maîtrise plus du tout sa créature politique.

Hantises obsidionales et égo russes

Da Empoli parvient à se placer dans la tête du conseiller russe, à restituer les hantises obsidionales d’un pays qui se sent encerclé et qui a eu le sentiment d’être humilié par l’Occident pendant toutes les années 1990. On se souvient de la fameuse scène du fou rire de Clinton face à un Eltsine ivre mort et l’on se dit, nostalgiques, que le monde était globalement plus sûr quand nous étions coincés entre une Russie gouvernée par un alcoolique et une Amérique par un obsédé sexuel. Si la séquence a alimenté pendant des années le bêtisier des Enfants de la télé, elle a aussi mis plus bas que terre l’égo national russe. Lors de la première rencontre Poutine-Clinton, le nouveau président russe fixe tout de suite les nouvelles règles.  Baranov raconte : "Avec lui ce serait différent. Plus de claques dans le dos ni de gros rires. Clinton a été déçu, c’est évident. Il pensait que désormais tous les présidents russes seraient de braves portiers d’hôtels, gardiens des plus vastes ressources de gaz de la planète pour le compte de multinationales américaines. Pour une fois, lui et ses conseillers sont repartis un peu moins souriants que lorsqu’ils sont arrivés". Da Empoli restitue donc la mentalité du conseiller russe, sans entrer dans le jeu de la propagande russe. De toute façon, Baranov-Sourkov est un peu trop décalé, un peu trop occidental pour être totalement dupe de celle-ci.

Écrit avant le début de l’invasion russe, le livre n’avait évidemment pas anticipé le contexte actuel explosif. L’Ukraine n’est toutefois pas absente du roman, Baranov ayant observé attentivement la contestation ukrainienne des élections de 2004 autour d’une jeunesse rassemblée sur la place Maïdan et appuyée notamment par l’argent de Berezovsky. Cette subversion ukrainienne va inspirer directement le régime russe, qui va tenter de se mettre dans la poche tout ce que la Russie compte de marginaux et de subversifs, des bikers aux communistes en passant par l’extrême-droite, afin de maîtriser le mouvement. Baranov reçoit dans son bureau du Kremlin un certain Zaldostanov, chef d’un gang de motards. Baranov le met rapidement au service du pouvoir, grâce à une observation politique froide et clinique : "J’ai pu constater à plusieurs reprises que les rebelles les plus féroces sont parmi les sujets les plus sensibles à la pompe du pouvoir. Et plus ils grognent quand ils sont devant la porte, plus ils glapissent de joie une fois passé le seuil. Contrairement aux notables, qui cachent parfois des pulsions anarchiques sous l’habitude des dorures, les rebelles sont immanquablement éblouis comme les animaux sauvages face aux phares des routiers".

Porté par son écriture mais aussi par l’actualité, le livre connait un grand succès et a fait l’objet de plusieurs tirages depuis sa sortie. Un livre que l’auteur n’écrirait peut-être plus aujourd’hui. En décembre dernier, dans l’Express, il confiait : "il y a quelques années, Vladislav Sourkov m’apparaissait comme un personnage romanesque. C’était déjà un "méchant", mais il était aussi féru de théâtre d’avant-garde et présentait un profil atypique pour un homme de pouvoir. J’ai écrit Le Mage du Kremlin dans un autre contexte. Aujourd’hui, avec la guerre en Ukraine, je n’en aurais plus envie… 



 

Auteur: Magellan Frédéric

Info: Causeur.fr, 20 février 2023. Giuliano Da Empoli n’écrirait plus “Le mage du Kremlin”, aujourd’hui

[ littérature ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychosomatique

Le jumeau maléfique de l'effet placebo fait des ravages, selon l'essayiste états-unien Stewart Justman, pourfendeur du diagnostic qui rend malade Comme les héros des feuilletons télévisés, l’effet placebo a un jumeau maléfique: il s’appelle "nocebo". Le placebo, rappelons-le, est ce phénomène troublant qui veut qu’un bonbon lambda avalé en croyant prendre un médicament authentique peut apporter les mêmes bienfaits que le vrai remède, grâce à la suggestion. Le nocebo fonctionne sur le même mécanisme, mais avec l’effet inverse: il fait du mal. Dites-moi que j’ai ingurgité une denrée avariée, mes boyaux se tordront. Magique? Pas vraiment: le cerveau ayant pour tâche de gérer les fonctions du corps, il n’est pas étonnant que l’information qu’il absorbe infléchisse le processus. Dans The Nocebo Effect*, Stewart Justman, essayiste états-unien partageant son œuvre entre l’histoire de la littérature et la médecine (avec des passerelles fréquentes entre les deux), évoque les ravages du nocebo dans des territoires médicaux aussi différents que l’anorexie, le syndrome de fatigue chronique, la dépression, le trouble dissociatif de l’identité, l’hyperactivité, les cancers du sein et de la prostate. Parfois, le mal est un effet direct de l’imagination, aiguillée par la propagande pharmaceutique ou par les campagnes de prévention: "Une fois mises sur le marché, des idées sur telle ou telle maladie sont en mesure de susciter la maladie elle-même", constate Justman: un diagnostic peut déployer son potentiel nocif en "semant des suggestions dans l’esprit du patient". Est-ce fréquent? La question est apparemment très peu étudiée, en partie car il est éthiquement difficile de mener des expériences consistant à créer des problèmes chez les sujets. Des indications sur le "jumeau maléfique" se nichent toutefois dans les études sur l’effet placebo. Dans une étude troublante, publiée dans l’International Journal of Clinical Practice en 1998, l’Anglais A. F. Cooper découvrait par exemple, avec un groupe de patients souffrant de polyarthrite rhumatoïde, que ceux à qui l’on administrait une brève leçon de choses sur la maladie se portaient moins bien que ceux qu’on se bornait à soigner, sans rien leur dire. Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé Dans d’autres cas, c’est le dépistage à grande échelle qui fait des dégâts, débouchant sur des traitements qui se révèlent plus nuisibles – voire plus meurtriers – que le mal qu’ils sont censés soigner. Les mises en garde viennent du champ médical lui-même, qui s’inquiète des effets pervers de la traque systématique aux cancers du sein et de la prostate: on y revient plus loin. Qu’il agisse directement sur l’individu via la suggestion ou qu’il déploie ses conséquences à travers une prise en charge médico-sociale, l’effet nocebo résulte d’un phénomène de "surdiagnostic": Overdiagnosis and Its Costs ("Le surdiagnostic et ses coûts") est le sous-titre du livre de Stewart Justman. Morphine et neurasthénie Comment ça marche? Le rapport de cause à effet semble s’afficher parfois de manière évidente. "Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé", comme si "les personnes atteintes façonnaient inconsciemment leurs symptômes selon le modèle fourni par les médias". Il en va d’une manière semblable pour la neurasthénie, syndrome à la mode au cours de la Belle Epoque, "qui s’épanouit auprès des couches aisées, jusqu’à sa disparition au début du vingtième siècle". Identifié par le neurologue états-unien George Beard en 1869, le trouble était défini comme "une maladie englobante, dont le symptôme clé était une fatigue mentale et musculaire", mais dont les manifestations possibles remplissaient une liste de 70 entrées. "L’existence brève et spectaculaire de la neurasthénie témoigne de la manière dont une appellation a le pouvoir d’organiser et de mobiliser des symptômes", relève Justman. Certains maux paraissent ainsi atteindre les corps par une contagion socio-culturelle. Placebo et nocebo montrent que l’acte médical, loin d’être une simple interaction physique, est en réalité une "procédure sociale" à part entière: "Des expériences montrent que même un médicament aussi puissant que la morphine produit un effet plus important lorsqu’il est administré ouvertement, dans le cadre d’un rituel médical, que lorsqu’on le donne aux patients à leur insu." Exemple saisissant de la production d’un syndrome via le cérémoniel thérapeutique: le trouble dit "de la personnalité multiple", qui n’émerge le plus souvent qu’au moment où le soignant demande au patient de nommer ses alters egos. Sommeil et désarroi Faut-il parler de maladies imaginaires, de troubles socialement manufaturés à partir de néant? Dans le cas des symptômes de dépression, Justman suggère plutôt qu’il s’agit souvent d’états inhérents à la normalité de l’existence, qui se retrouvent médicalisés, c’est-à-dire transformés en pathologies. C’est "le désarroi commun et passager, produit par la vie elle-même, qui se résoudrait spontanément si on ne faisait rien"; ce sont "des constantes de la condition humaine", ou en tout cas "des difficultés qui se rattachent à la nature même de la civilisation". Le DSM-5, dernière édition du catalogue états-unien (et international) des troubles psychiques et de leurs symptômes, "intègre, à contrecœur, l’argument selon lequel ce qu’on appelle dépression peut être en fait une réponse justifiée à la vie elle-même". On pourrait, bien sûr, retourner la question: faut-il accepter le désarroi ordinaire en tant que composante inévitable de la normalité, ou peut-on aspirer à s’en débarrasser? Comme les sociologues Allan V. Horwitz et Jerome C. Wakefield Stewart, auteurs de Tristesse ou dépression? Comment la psychiatrie a médicalisé nos tristesses (2007), Justman défend l’existence de la mélancolie dans l’expérience humaine. D’autres cultivent le rêve utopiste de l’éradication de tout chagrin. Le problème, c’est que la médicalisation du malheur ordinaire aurait plutôt tendance à accroître la portée de ce dernier. "Ironiquement, un des effets du surdiagnostic de la dépression est que les antidépresseurs en vogue perturbent le sommeil", note Justman. Or, "un des facteurs de guérison les plus importants dans nos vies réside dans notre capacité de sombrer chaque soir dans l’endormissement réparateur"… La conscience est surestimée Y a-t-il donc un équilibre, un "bon" seuil de médicalisation à ne pas dépasser? La question est particulièrement lancinante dans le cas des cancers du sein et de la prostate. Dans les deux cas, le dépistage massif conduit à détecter et à traiter une quantité de cancers "dormants" ou "indolents" qui seraient inoffensifs et avec lesquels on vivrait sans problème. Le sein: selon une étude publiée en 2013 dans le British Medical Journal par le chirurgien Michael Baum, pour chaque décès évité par la mammographie on peut s’attendre à un chiffre de un à trois décès supplémentaires liés aux soins donnés aux femmes dépistées pour des cancers inoffensifs. La prostate: selon une étude européenne de 2009-2012, le dépistage réduit la mortalité engendrée par ce cancer, mais on compte 33 hommes rendus impuissants ou incontinents par une intervention non nécessaire pour chaque homme sauvé… Que faire? Eliminer les dépistages, plus nuisibles que bénéfiques comme le suggèrent plusieurs chercheurs? Brûler le DSM, véritable machine à surdiagnostiquer (et dénoncé en tant que tel par Robert Spitzer et Allen Frances, deux responsables successifs de la task force qui en coordonne la rédaction)? Arrêter net les campagnes d’information, sources majeures d’effets nocebo? Dans son élan, Justman jette peut-être quelques bébés avec l’eau du bain (notamment dans le domaine du traumatisme psychique). On retiendra néanmoins son éloge paradoxal de l’inconscience: nous vivons sous l’emprise d’un "culte de la conscientisation", mais "la conscience est surestimée". Notre cerveau fait son travail de gestion de la vie dans le silence des processus inconscients, où il n’est sans doute pas anodin de trop le déranger. Il travaille à notre insu, par habitude. Il est vrai que l’habitude a mauvaise presse. Et pourtant – la philosophie confucéenne et taoïste en avait l’intuition, les neurosciences le savent aujourd’hui –, "l’habitude est hautement opérationnelle, même dans des faits d’excellence".

Auteur: Ulmi Nic

Info: in le temps online du 15.9.2015 sous Effet nocebo: le patient qui en savait trop, *The Nocebo Effect. Overdiagnosis and Its Cost, par Stewart Justman, Palgrave Macmillan, 272 p

[ grégaire ] [ influençabilité ] [ corps-esprit ]

 

Commentaires: 0

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

fric

Faut-il réduire la taille des établissements bancaires ? Une stricte séparation entre banque de dépôt et banque d'investissement est-elle nécessaire ? Qu'en est-il des relations entre les pouvoirs publics et les banques ?
La Lettre des Académies, une publication commune de l'Académie royale de Belgique, l'Académie royale de Médecine de Belgique, l'Académie royale de langue et littérature françaises de Belgique, The Royal Academies for Science and the Arts of Belgium et l'Union Académique internationale, me pose la question mise en titre. Ma réponse sera publiée dans le N° 31.
Une réponse a été offerte indirectement à ces questions d'actualité, le 6 mars 2013, par Eric Holder, l'Attorney General des États-Unis, l'équivalent de notre Ministre de la justice.
Le cadre de sa déclaration était une audition du Comité judiciaire du Sénat américain. Les questions posées visaient à comprendre pourquoi aucun dirigeant d'établissement bancaire n'avait été poursuivi à la suite des événements qui avaient conduit à l'effondrement du système financier international en septembre 2008, le fait étant patent que l'origine de ce séisme se trouve au sein-même du système bancaire américain, et plus particulièrement dans l'émission de titres adossés à des prêts immobiliers résidentiels de qualité médiocre, les fameux prêts "subprime".
Répondant au Sénateur Chuck Grassley (républicain de l'Iowa), qui l'interrogeait sur l'apathie du ministère de la Justice dans la recherche de coupables, Eric Holder déclaraot ceci :
"Je crains que la taille de certains de ces établissements ne soit devenue si grande qu'il est devenu difficile de les poursuivre en justice, parce que des indications nous parviennent qui si nous les poursuivions - si nous procédions à des inculpations - cela aurait un impact négatif sur l'économie nationale, voire même sur l'économie mondiale, et il me semble que ceci est la conséquence du fait que certains de ces établissements sont devenus trop importants [...] Ceci a une influence inhibitoire sur, ou impacte, notre capacité à prendre les mesures qui seraient selon moi les plus adéquates..."
Holder ne dit pas explicitement qu'il existe entre le secteur bancaire et le ministère de la Justice un rapport de force et qu'au sein de celui-ci, le ministère de la Justice est en position défavorable, mais c'est bien ainsi que ses propos furent interprétés par les sénateurs qui l'interrogeaient. C'est également la manière dont sa réponse fut rapportée par la presse unanime.
* * *
Lorsqu'il était devenu manifeste à l'automne 2008 que certaines banques étaient à ce point stratégiques que leur chute, comme celle de Lehman Brothers qui venait d'intervenir, entraînerait celle du secteur financier tout entier, l'expression "Too Big to Fail" se répandit : trop grosse pour faire défaut. Elle s'emploie toujours, en concurrence avec l'expression officielle de "banque systémique", en référence au risque systémique : la mise en péril du système financier dans son ensemble.
En février 2013, dans une tribune libre du Financial Times, Neil Barofsky, qui avait été l'Inspecteur-général du Troubled Asset Relief Programme (TARP), le programme de sauvetage du système financier américain, employa une nouvelle expression calquée sur la première : "Too Big to Jail", trop grosse pour être mise en prison.
S'il était donc apparu en 2008 que certains établissements bancaires étaient à ce point cruciaux que leur faillite se répercuterait sur l'ensemble du système financier, il était devenu évident en 2013, et c'est ce que les propos du ministre de la Justice américain confirmaient, que le rapport de force entre ces mêmes banques et le gouvernement était tel qu'elles disposaient du pouvoir de maintenir le statu quo. Les banques systémiques disposaient désormais du pouvoir de faire obstacle à ce qu'on les empêche de mettre en péril l'ensemble du système financier, et ce pouvoir, elles l'exerçaient.
Trois approches étaient envisageables vis-à-vis des banques systémiques :
1) les démanteler, jusqu'à ce que la taille des unités recomposées soit telle que leur défaut n'entraîne plus d'effet domino ;
2) décourager ou interdire celles de leurs activités qui génèrent du risque systémique, à savoir les paris sur les variations de prix (ce qu'on désigne habituellement du terme trop vague de "spéculation").
3) accroître les réserves par rapport à leur niveau d'avant-crise, en espérant que le calcul soit cette fois fait correctement.
À chaud, à l'automne 2008, les deux premières options uniquement étaient sérieusement prises en considération, la troisième était écartée du fait de sa touchante naïveté. Seule cette dernière pourtant serait adoptée en juillet 2011 avec les normes Bâle III, qui devraient être mises en vigueur entre 2016 et 2019, du moins si les efforts des lobbies qui cherchent aujourd'hui à les bloquer devaient échouer.
Dans une approche en termes de réserves, rien n'est fait - il faut le souligner - pour endiguer le risque systémique : on s'efforce seulement d'évaluer les pertes éventuelles. Bâle III ne distingue pas non plus les risques inévitables, dus aux impondérables d'un avenir incertain, et les risques encourus délibérément par les banques quand elles font des paris sur les variations de prix.
* * *
Dans trois cas récents, les efforts du secteur bancaire pour faire obstacle à ce qu'on l'empêche de mettre à l'avenir l'ensemble du système financier en péril, furent couronnés de succès.
Un tribunal à Washington invalidait le 29 septembre 2012 des mesures prises par la CFTC (Commodity Futures Trading Commission), le régulateur américain du marché des produits dérivés, règles qui auraient plafonné le volume des positions qu'un intervenant peut prendre sur le marché à terme des matières premières, afin qu'il ne puisse à lui seul le déséquilibrer. Le secteur s'était opposé à de telles mesures, noyant la commission sous un flot d'avis défavorables, s'assurant ensuite - grâce au parti républicain - que le budget de l'organe de contrôle prévu ne soit pas voté, assignant enfin la CFTC devant les tribunaux. Cette dernière stratégie s'avérerait payante.
On avait appris quelques jours auparavant, le 24 septembre 2012, que l'IOSCO (International Organisation of Securities Commissions), organisme fédérant les régulateurs nationaux sur le marché des matières premières, et à qui le G20 avait confié le soin de réguler le marché du pétrole, jetait l'éponge. Lors de la réunion qui venait de se tenir, les contreparties : l'Agence Internationale de l'énergie, l'OPEP (Organisation des pays exportateurs de pétrole) et les compagnies Total et Shell, avaient constitué un front du refus. Les compagnies pétrolières avaient affirmé qu'en cas de réglementation du secteur, elles cesseraient de communiquer à leurs organismes de supervision les données relatives aux prix pratiqués.
Le mois précédent, le 22 août 2012, alors que la SEC (Securities and Exchange Commission), le régulateur des marchés boursiers américains, avait mis au point un ensemble de mesures en vue d'empêcher que ne se reproduise un effondrement du marché des capitaux à court terme (money market), tel celui qui l'avait dévasté en septembre 2008, elle n'était pas parvenue à réunir une majorité en son sein, l'un des membres du comité - très lié au secteur - ayant refusé son aval.
Je concluais ainsi ma chronique dans le quotidien Le Monde, où je rapportais ces trois illustrations (°) :
"La finance dispose donc des moyens de neutraliser toute tentative de réduire la nocivité de ses pratiques. Elle s'est immunisée contre les efforts engagés par la communauté pour se protéger contre un nouvel effondrement, efforts motivés bien entendu par le souci de se prémunir contre les conséquences économiques et sociales d'une telle catastrophe. Toute mesure préventive d'un nouveau désastre étant systématiquement désamorcée, celui-ci devient inéluctable".
J'avais donné pour titre à ma chronique elle-même, une citation d'Arnold J. Toynbee : "Les civilisations ne meurent pas assassinées, elles se suicident".
Tous les efforts menés en vue d'une nouvelle régulation de la finance recourent à la même stratégie : le monde financier est consulté par les autorités, se tient ensuite une négociation visant à ce que se dégage un compromis entre les exigences des uns et des autres. La condition essentielle pour qu'une telle stratégie réussisse est que l'industrie financière s'identifie à l'intérêt général, qu'elle reconnaisse et promeuve la nécessité de garantir un cadre qui maintienne la pérennité des institutions financières sans affecter pour autant la bonne santé de l'économie. Cette condition-là n'est hélas pas remplie.
John Maynard Keynes écrivait en 1926 dans un essai consacré à "La fin du laisser-faire" : "Suggérer à la City de Londres une action sociale en vue du bien public est du même ordre d'idée que discuter L'origine des espèces avec un évêque il y a soixante ans". La remarque n'a rien perdu de son actualité, et notre tolérance, à nous citoyens, face à ce scandale, toujours aussi grande, suggérant que nous nous sommes faits une raison devant un rapport de force entre le secteur bancaire et nous qui semble destiné à nous demeurer éternellement défavorable.

Auteur: Jorion Paul

Info: 13 AOÛT 2013

[ société ] [ pouvoir ] [ profit ]

 

Commentaires: 0

prospective affirmée

Jouant avec 10 coups d’avance, la Chine est le véritable maître du jeu, la Russie est d’ores et déjà consciente du risque de se faire vassaliser par son puissant voisin.

Ce qui conditionne la géopolitique du présent comme des prochaines années, c’est la lutte froide-chaude entre les USA et la Chine + l’accès à l’énergie, à l’eau et à certaines matières premières. Tous les autres conflits sont à la périphérie de ce duel.

LE PASSE-FUTUR

Le passé cosmique étant en partie l’avenir de la terre, il est relativement confortable d’anticiper certains paramètres.

PARAMÈTRE 1 : Le programme des Gestionnaires de la planète Terre se poursuit suivant leur Plan

Les administrateurs non humains terrestres interviennent sur le ‘’jardin’’ comme ils le font depuis des éons : physiquement, génétiquement, et bio-énergétiquement. Entre autres choses, ils gèrent les avancées scientifiques de l’humanité terrestre, les accélérant et les freinant selon les cas.

PARAMÈTRE 2 : Les développements scientifiques et technologiques sont les véritables révolutions.

Ils impactent directement la politique, la sociologie, l’économie et la guerre.

Les principales innovations viendront des biotechnologies et des technologies d’assemblage à l’échelle atomique. Ces dernières vont redécouvrir des matériaux ‘’exotiques’’ : hyper-résistance, inaltérabilité, autoassemblage, supra-conductivité électrique, production endogène d’énergie. A base de carbone, de silicium puis par assemblage avec d’autres éléments. Un immense champ de recherches s’ouvrira…

De nouveaux paradigmes scientifiques vont en émerger, avec des développements sur des palettes de plus en plus diversifiées. Ils vont à terme changer la donne sur la production et le stockage d’énergie, le transport terrestre et spatial, et l’armement. La géopolitique en sera bouleversée, avec la fin de certaines raretés et le développement de l’autonomie énergétique à toutes les échelles.

En sus, la mise en évidence de l’état ‘’epsilon’’ de la matière va ouvrir une nouvelle direction scientifique dont on n’a pas idée en 2022. Entre autres choses, à terme, il deviendra très aisé de contrôler l’esprit humain ordinaire, sans utiliser les médias (presse, télévision, internet) inféodés et contrôlés par les leaders Industriels et politiques humains à l’époque où ces lignes sont écrites.

PARAMÈTRE 3 : La démographie du présent (2022) anticipe de manière très sûre le 21ème siècle.

La stabilisation de la population humaine, sa maîtrise, voire sa réduction s’avère une donnée incontournable bien que largement tabou pour le commun au début du siècle. Elle peut s’opérer contrainte, par crises, ou bien gérée paisiblement dans la durée.

Ici, ce sera probablement par crises, espérons qu’elles seront les moins radicales possibles.

PARAMÈTRE 4 : Résistance et atout ‘’caché’’ des USA face à la Chine

Il serait extrêmement étonnant que les services de renseignements russes et chinois ne soient pas informés de l’AVANCE TECHNOLOGIQUE considérable qu’ont pris les USA sur le reste de la planète, par la rétroconception de technologies exotiques, assistés par certains exogènes eux-mêmes.

Cependant, cette avance a créé une sorte d’élite planétaire qui s’est rapidement et largement affranchie du système ‘’démocratique’’ et de l’état américain lui-même. Ses membres sont actuellement issus de toutes origines terrestres, l’hyper compétence dans un domaine de pointe étant le principal critère d’entrée : mathématiques, physique, etc.

La stratégie politique de cette élite est la discrétion maximum, ce qui implique la non-intervention sur le sol de la planète.

A titre d’exemple, si l’on parle vélocité, les missiles hypersoniques de la Russie vont possiblement à mach 20 (environ 7 km seconde - 400 km minute) ou plus, très certainement en utilisant des technologies MHD comme l’explique JP PETIT. Ils accélèrent grosso modo de manière conventionnelle par échange de quantité de mouvement, en s’appuyant sur le milieu ambiant ou / et avec des fusées. Leur limite est celle de la résistance des matériaux aux forces d’accélération.

Les ARV (Alien Reproduction Véhicules) des black programs s’appuient sur des technologies très différentes, beaucoup plus avancées. Ils peuvent circuler dans l’espace, une zone où la matière est très peu dense et où la MHD ne fonctionnerait pas ou très peu, les accélérations seraient très faibles bien que continues.

Les ARV ont franchi le mur de la lumière depuis la fin des années 1970, ils passent de 0 à 20 000 km / heure quasi instantanément et peuvent prendre des virages à angle droit, ils ne sont plus soumis aux lois réputées universelles de la masse et de l’inertie. On ne peut pas les voir car ils vont trop vite. En outre, un second facteur les rend furtifs : ils changent de dimension. Ils peuvent facilement prendre des passagers, ce qui semble plus compliqué avec les technologies russes de missiles hypervéloces.

Ces ARV sont souvent observés comme des OVNIS de forme triangulaire.

Que l’on parle des technologies MHD ou bien des technologies de rétroconception Z .R, il s’agit de produire des champs magnétiques de très haute intensité, mais dans le second cas ils sont beaucoup plus puissants et complexes.

Il est spéculatif de penser que l’élite interviendra dans les conflits traditionnels terrestres, fussent-ils nucléaires. La grande avance technologique ‘’cachée’’ des black programs pourrait modifier la donne dans la compétition Chine – USA, au moins sur le court terme. Idem sur une organisation secrète chinoise, extrêmement puissante financièrement. J’ai eu plusieurs contacts avec certains de leurs membres, ils sont parfaitement conscients de la présence des Gestionnaires non terrestres et de la structure poly dimensionnelle de la Création.

Les Administrateurs non terrestres de la planète font la démonstration constante de leur interventionnisme au niveau du nucléaire civil et militaire, ceci depuis plus de 60 ans. Il nous faut espérer qu’ils gardent la même politique en cas de conflit nucléaire généralisé imminent.

LE FUTUR

J’avais prévenu, je vais faire le contraire de ce que je recommande comme étant raisonnable.

Une seule raison à cela pour le moment, le souvenir d’une vie future en chine, dans 250 ans. Cette réminiscence a commencé spontanément en 2019, lors d’une balade en voiture dans ce que je nomme maintenant ‘’la vallée du souvenir’’. En effet c’est quelque part ici qu’il y a la grotte du souvenir, un lieu secret où certains reviennent chercher la pierre qu’ils y ont déposée lors d’une incarnation passée.

Les Voyages dans le futur et dans le passé m’ont tout de suite étonné. Je dois dire qu’à chaque nouvelle exploration de ce type, je comprends encore moins ce qu’est le temps, à part qu’il est subjectif et dépend à la fois de l’état de conscience et de la position vibratoire où l’on se trouve.

Cette émergence mémorielle a débuté exactement comme celles relatives aux vies passées sur terre. Puis elle apporte son flot de détails de manière continue, comme pour les autres incarnations. Je vais le redire mais oui, moi aussi je n’y comprends rien. Les bidules spiritualeux du genre : ‘’toutes les incarnations se passent en même temps’’ ne me conviennent pas du tout.

Et NON, mon incarnation du 23ème siècle n’est pas un futur possible. Cette théorie me semble plus un jeu de l’esprit qu’autre chose, une simple discussion de salon, mais vous connaissez mon côté tranchant.

A ce moment la Chine est l’état le plus avancé au monde, à presque tous les points de vue. Bien que le monde humain terrestre de 2370 soit plus multipolaire qu’en 2022, il reste rassemblé autour d’un point central économique, scientifique et culturel : la Chine.

Mauvaise nouvelle pour les égocentristes des démocraties à l’occidentale : la Chine n’est pas une démocratie suivant leur modèle. En deux mots, elle a géré la question des populations, des croyances religieuses scélérates et violentes, de la délinquance et de la pauvreté. Depuis environ 250 ans, c’est le centre du monde terrestre. Je suis l’un d’entre eux, chinois par ma mère, occidental par mon père qui est natif d’un pays européen nordique, mais je ressemble parfaitement à un chinois, enfin si l’on en croit mon souci de conformité des jeunes années de ce moi du futur. Lui et moi sommes la même personne avec deux costumes différents.

Avant la seconde moitié de ce 23ème siècle, le crédit social a évolué vers une forme de reconnaissance entièrement basée sur l’utilité de l’individu envers la collectivité. Autour de moi, personne ne conteste ce système qui nous parait à la fois juste et logique.

Il n’y a pas eu de guerre nucléaire généralisée, juste des explosions d’armes nucléaires tactiques de puissance "modérée", dans des conflits dont les enjeux étaient l’énergie, au 21ème et au 22ème siècle. Je ne m’intéresse pas plus à l’histoire du 21ème siècle qu’une personne de 2030 se soucie de ce qui s’est passé au 17ème siècle, ici ou là. C’est juste de la culture générale non impliquante.

Comme les souvenirs reviennent régulièrement, la scène s’étoffe de plus en plus. Ma vie personnelle d’alors, je pense que chacun s’en fiche, alors parlons de mon action principale : je vais participer à la préparation de l’intégration de l’humanité dans le groupe cosmique local.

Non, la "révélation" généralisée ne semble pas être pour demain.

Auteur: Auburn Marc

Info: Post FB du 21 août 2022 - Voyage, mémoire et géopolitique du 21ème siècle

[ voyage astral ] [ futurologie ] [ ufologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

mimétisme

La surexposition a déformé la science des neurones miroirs

Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.

Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.

Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.

Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.

Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.

Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.

Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.

Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.

L'ascension et la chute

Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.

Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.

Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.

Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.

(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)

Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».

Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.

Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs.  Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il.  Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.

Le neurone miroir, redéfini

Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.

En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.

Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.

"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.

Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions  personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.

Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.

L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024

[ pulsions partagées ] [ actions symboles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel