Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 41
Temps de recherche: 0.0824s

lassitude

Dans l’ennui, je dirais, ce qui nous arrive, c’est que nous accédons à une perception douloureuse de la répétition, la répétition se donne à nous sous le biais du monotone et par cette dimension du monotone, ce qui se produit, si vous y pensez bien, vous verrez que ça coïncide avec quelque chose... je m’excuse d’aller un peu vite, mais je crois qu’on peut le dire quand même ...ça correspond avec quelque chose de l’ordre de l’usure de la métaphore paternelle.

Les métaphores s’usent : regardez un mot d’esprit, il fait de l’effet un temps, un mot d’esprit s’use, une fois usé, effectivement il est monotone. Je dirais que l’usure de la métaphore, l’effet de cette usure... et cette usure se produit justement sous l’effet de l’impact de ces signifiants qui persistent dans le Réel et qui sont corrodants sur la métaphore ...cette usure, je dirais qu’elle est liée à l’apparition du déchet dans notre univers. [...]

L’usure de la métaphore, vous pouvez repérer qu’elle est lié à l’apparition dans notre univers du déchet,

– que ce déchet soit de l’ordre subjectif avec ce qu’on appelle la culpabilité ou le péché,

– ou que ce déchet soit même l’apparition de ce déchet qu’est notre corps propre dans la mesure ou notre corps dans la perspective de cet ennui ou de cette monotonie, ce qui lui arrive, c’est qu’il peut se mettre parfois à être, je dirais, soumis à une loi qui serait la loi exclusive du réel, je veux dire la loi de la pesanteur, je veux dire par là que lorsque notre corps se mettrait à se manifester par le fait qu’il pèse parce qu’il ne serait soumis qu’à la loi de la pesanteur, eh bien, vous avez là, l’accentuation de la fonction de ce déchet qu’est notre corps tout à l’opposé, si vous voulez, quand le corps est soumis à cet autre Réel qui est celui du signifiant qui l’allège, ce qui fait que vous voyez certaines personnes marcher dans la rue qui semblent ne pas peser, qui semblent être comme une plume, quel que soit leur poids, c’est quelque chose de cette nature et on peut dire que ce déchet qu’est le corps quand il se met à peser, eh bien, nous pouvons l’opposer à ce qui arrive au corps quand brusquement il s’allège, il s’allège par exemple dans la fête ou dans le repas totémique, ou tout simplement dans l’amour, dans le coup de foudre, la foudre sidération, ce que représente pour un homme ce signifiant de haute intensité psychique qu’est la femme, ce signifiant sidérant, il faut reconnaître qu’il a le pouvoir, en suscitant l’amour - et puis le terme de ce terme de femme fatale nous fait peut-être sentir que par cette fatalité, ce que l’homme rencontre de fatal, c’est quelque chose de l’ordre du signifiant du Nom du Père - eh bien, qu’est-ce qui se passe quand on perd la tête dans l’amour, ou le corps c’est que vous devenez tellement légers ou allégés que comme à la limite, comme le maniaque vous perdez votre lest, vous devenez fous, ne pesez plus rien, vous perdez le corps, la tête.

Et alors ce que je voulais vous signaler, c’est que cette consomption ou cette consumation du reste qu’est cette consumation du corps quand il ne pèse plus, eh bien, repérez que justement dans le repas totémique ou dans les fêtes qui sont étudiées dans les sociétés magiques, les restes, corrélativement à l’incorporation du père, il y a cette cérémonie, ce qui a été peu retenu par Freud, qui consiste à brûler les restes.

Auteur: Didier-Weill Alain

Info: La topologie et le temps, intervention lors du séminaire de Jacques Lacan, 8 mai 1979

[ causes ] [ calcification ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

sciences

La pratique de la méditation modifie l'organisation du cerveau
Les adeptes de la méditation de pleine conscience apprennent dans leur pratique à accueillir les sensations, les émotions et les états d'esprit sans leur résister ni les juger. Ils cherchent simplement à être dans le moment présent.
Plusieurs études ont démontré que ce type de méditation pouvait avoir des effets bénéfiques à long terme sur la stabilité émotionnelle et, par conséquent, sur des désordres comme l'anxiété et la dépression majeure. Une nouvelle recherche révèle que cet entrainement de l'esprit aurait une influence sur le réseau cérébral par défaut chez des personnes ayant une longue expérience de la méditation quand elles sont au repos. Les différences sur le plan cérébral indiqueraient que la méditation favorise la concentration et la réflexion de manière plus objective par rapport à soi.
"Nous avons étudié le cerveau de 13 adeptes de méditation ayant plus de 1000 heures d'entrainement et celui de 11 débutants à l'aide d'analyses de connectivité fonctionnelle", dit Véronique Taylor, première auteure de cette recherche publiée dans la revue Social Cognitive and Affective Neuroscience Advance Access en mars dernier et réalisée dans le laboratoire du professeur Mario Beauregard, de l'Université de Montréal.
La connectivité fonctionnelle fait référence à la synchronisation entre deux ou plusieurs régions cérébrales qui changent dans le temps, soit pendant une tâche concrète ou au repos. Cette méthode d'analyse peut s'appliquer à des données d'imagerie par résonance magnétique fonctionnelle. "Les participants demeuraient quelques minutes dans le scanner et on leur demandait de ne rien faire", explique Mme Taylor, qui termine actuellement son doctorat en psychologie sous la direction du professeur Pierre Rainville.
Ces analyses ont permis aux chercheurs de repérer le réseau cérébral par défaut des sujets, c'est-à-dire un ensemble de régions s'activant au repos, lorsque la personne n'effectue aucune activité particulière.
"Nous voulions ainsi vérifier si les effets de la méditation de pleine conscience persistaient au-delà de la pratique, poursuit la doctorante. Selon notre hypothèse, le réseau cérébral par défaut des adeptes de la méditation serait structuré autrement. Le réseau par défaut est associé à la rêverie, aux pensées relatives à soi quand nous ne faisons "rien". En fait, nous pensions y trouver une organisation différente parce que ces individus sont habitués à être dans le moment présent et leurs pensées ne partent donc pas dans tous les sens lorsqu'ils sont au repos."
Effectivement, les résultats obtenus font voir une plus faible synchronisation entre les cortex préfrontaux ventro-médian et dorso-médian. "La partie dorsale est engagée dans les processus cognitifs associés au soi et la partie ventrale concerne plutôt l'évaluation émotive du soi, mentionne Véronique Taylor. Le fait que ces zones sont moins inter reliées montre que ces personnes réfléchiraient sur elles-mêmes de façon plus objective." Elle ajoute que plus les participants avaient de l'expérience en méditation, plus cette connexion était faible, ce qui, selon elle, "donne du poids à ces résultats".
Fait curieux et intéressant: ces mêmes sujets présentaient une plus forte synchronisation entre certaines zones qui convergent toutes vers le lobe pariétal droit. "Cette région est reconnue pour avoir un rôle déterminant dans l'attention, ce qui indiquerait peut-être un effet bénéfique à long terme de la méditation, mais qui reste à être prouvé par des recherches étudiant spécifiquement les processus attentionnels", signale l'étudiante.
Bien que les sujets aient été testés au repos, Véronique Taylor constate par elle-même les retombées tangibles de la méditation de pleine conscience au quotidien. "Je pratique la méditation depuis quelques années et je remarque que mon attention est plus soutenue, plus suivie lorsque je me concentre."
Il y a encore beaucoup à découvrir sur le pouvoir de la méditation, croit-elle. En attendant, elle suggère à tous de s'y mettre. "Cela ne coute rien et on peut méditer n'importe où et n'importe quand... et les avantages sont réels!"

Auteur: Internet

Info:

[ méditation ] [ zen ] [ parapsychologie ]

 

Commentaires: 0

discours scientifique

Ce qui est désigné par ce fossé irréductible qui sépare les structures du langage du monde auquel elles renvoient est l’impossibilité ontologique pour un langage quel qu’il soit de renfermer au sein de sa structure le monde en soi, autrement dit de dire tout du monde, en établissant une identité entre l’attelage signifiant-signifié et le référent (entre le mot et la chose pour faire court). Cela règle définitivement le fantasme immémorial et infantile qui n’est que l’expression d’un nihilisme masqué, de réaliser l’impossible coalescence entre l’absolu de l’en-soi et sa diffraction représentative, forcément plurielle et relative, puisque par essence la représentation n’est pas la chose, en tant qu’elle signale (re-présente) une absence. Seules les mathématiques, dont la structure signifiante a été immédiatement repérée par Pythagore comme un cas limite au sein duquel la formulation ne se distingue pas du référent désigné et ne forme qu’un avec lui, ont pu être investies de la propriété bien étrange de permettre d’échapper à l’incertain, au relatif, au transitoire et au corruptible : à la mort, donc, c’est-à-dire – et notre époque en tire le vin amer chaque jour davantage – à la vie. Cette propriété se paye au prix d’un formalisme asséchant – c’est-à-dire au prix d’un réel contenu différentiel - dans la mesure où les mathématiques se caractérisent essentiellement par des notations certes diffractées et multiples, mais en dernier ressort tautologiques [Cette caractéristique tautologique a cependant été depuis mise à mal par le théorème d’incomplétude de Kurt Gödel qui interdit depuis sa démonstration de pouvoir créditer les mathématiques d’une autoréférentialité absolue. Autrement dit, il faut postuler obligatoirement, pour pouvoir les fonder, une extériorité aux mathématiques, ce qui n’est que reculer pour mieux sauter et les renvoie elles aussi au niveau de leur fondement à la question de l’origine.]. Le vertige ontologique propre à la période moderne caractérisée par sa soumission à la Mathesis universalis de Descartes, est porteur de cette profonde envie d’en finir avec la finitude, la souffrance, l’altérité, le différentiel, la mort, en un mot la vie. Cette mathématisation à outrance du monde moderne et contemporain portée par une techno-science envahissante a voulu, de gré ou de force faire passer le réel sous les fourches caudines de cette propriété qu’ont les mathématiques d’assurer la coalescence entre la représentation et l’objet – au prix que l’on sait. Il est d’ailleurs fort intéressant de remarquer comme je l’esquissais plus haut que cette fascination pour l’identité langage/monde réimporte subrepticement et de la manière la plus inattendue aux frontières les plus extrêmes de la rationalité le fantasme archaïque présubjectal et infantile de la fusion matricielle initiale. Or les structures du réel ont la propriété de résister tenacement aux tentatives de viol qu’une rationalité ivre d’elle-même – rationalisme serait plus pertinent - prétend leur faire subir : le référent situé dans l’en-soi appartient au domaine de l’être, de l’incontournable vérité de l’être, de ce qui précède fondamentalement, de ce qui donc relève ontologiquement de la question de l’Origine. Le seul moyen de le contourner est de l’ignorer et de prétendre qu’il n’existe pas. Il en résulte alors un désarrimage radical de l’attelage signifiant-signifié vis-à-vis du référent qui seul est l’intangible garant de la vitalité du langage. Celui-ci dès lors se nécrose, et la structure amputée signifiant-signifié qui subsiste fait boucle sur elle-même, le signifié involutif et pathologique assumant une fonction pseudo-référentielle. Il en résulte une évanescence du réel, consécutive à l’évanescence référentielle. La destructivité sur l’en-soi du monde qui en résulte est effrayante. On comprend à présent aisément à quel point le postulat moniste initial de ma proposition est validé : quand une traction est exercée sur les instances représentatives du langage dans le sens de leur assèchement formaliste, c’est le monde en soi qui en face mécaniquement s’effondre et envahit l’ordre symbolique du fait de la torsion de la médiane nouménale qui en résulte, provoquant son déplacement (hachures). On peut remarquer au passage que l’augmentation du taux de prévalence de l’autisme s’explique ici passivement, et donne une justification suffisante à l’exonération de toute culpabilisation des parents d’enfants atteints de ce trouble : une personne présentant certaines fragilités la prédisposant éventuellement à l’emprise de l’autisme, mais qui y aurait échappé en d’autres temps, s’y trouve ici fatalement vouée du fait de ce déplacement (silhouette). Car l’évanescence référentielle provoque mécaniquement l’évanescence du père (P grisé), en raison du fait que ce qui est absenté n’est plus repris en charge dans l’ordre de la représentation.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, pages 61-62

[ émancipation imaginaire ] [ auto-institution fantasmatique ] [ conséquences ]

 
Commentaires: 2
Ajouté à la BD par Coli Masson

réseaux sociaux

Le shadow banning et son rôle dans la censure moderne

Les médias sociaux nous observent et contrôlent ce que nous voyons.

Ce n'est pas un secret, les algorithmes dominent nos vies sociales en ligne - ce n'est pas comme si nous ne prenions pas nos propres décisions lorsqu'il s'agit de savoir à qui nous parlons ou quels médias nous consommons, mais ce serait faire preuve d'une vraie ignorance qu'ignorer comment les systèmes ont été programmés pour catégoriser, collecter et suggérer des données simplement en fonction de nos goûts et de nos suivis. Cela nous expose à des contenus, des personnes et des idées que nous n'aurions pas trouvés par nous-mêmes, mais cela soulève la question du degré de contrôle que ces systèmes exercent sur ce que nous voyons. Voilà qui nous amène au shadow banning. 

Le shadow banning est la décision d'une plateforme de médias sociaux d'empêcher partiellement ou totalement l'interaction avec le contenu d'une personne - empêcher de nouvelles personnes de rechercher votre contenu, s'assurer que vous n'apparaissez pas sous les hashtags ou même limiter la fréquence à laquelle vous êtes suggéré comme personne à suivre... ne sont que quelques exemples de la façon dont cela peut être réalisé. Les plateformes telles qu'Instagram et Tiktok reconnaissent rarement les allégations de cette nature, mais soulignent plutôt leur droit de supprimer les publications qui ne sont pas conformes à leurs directives communautaires et le fait qu'en acceptant d'utiliser la plateforme, vous consentez à leur pouvoir de le faire. 

D'une manière générale, le fait que vos vidéos soient supprimées ou que moins de personnes puissent y accéder n'est pas le plus grand préjudice du monde, mais il faut noter que les personnes qui font l'objet d'un bannissement caché présentent un profil significatif. Si je me réfère aux directives de la communauté Tiktok, il est dit que sont mises au rebut les vidéos créées dans le but de nuire à autrui. Mais dans ces directives, ils s'efforcent de répéter que sont autorisés "les contenus éducatifs, historiques, satiriques, artistiques et autres qui peuvent être clairement identifiés comme des contre-discours ou qui visent à sensibiliser aux dommages causés par des individus et/ou des organisations dangereuses". Cette citation et leur déclaration de soutien au mouvement Black Lives Matter surprendront surtout tous les de créatifs noirs qui ont vu leur taux de fréquentation chuter et leurs vidéos être retirées de leur profil. 

Instagram s'est montré tout aussi complice dans cette affaire - il y a eu un retour de bâton significatif de la part des travailleurs du sexe, des éducateurs sexuels et souvent des espaces inclusifs, queer et sexuellement positifs sur cette application. Dans son article publié dans le Guardian, Chante Joseph a exposé la zone grise qui n'est pas aussi clairement définie que la politique de non-nudité d'Instagram, où les administrateurs peuvent signaler un contenu comme étant "sexuellement suggestif" ; beaucoup de gens affirment que c'est nécessaire afin de s'assurer que les enfants ne sont pas exposés à des contenus inappropriés - plutôt que de responsabiliser les parents ou que les plateformes de médias sociaux tentent au moins d'introduire une forme de restriction d'âge, la charge est donc placée sur les créateurs. Mais considérons, par exemple, les créateurs LGBTQIA+ ; leurs comptes fournissent des informations auxquelles des jeunes qui n'ont peut-être même pas fait leur coming out pourraient avoir accès afin de pouvoir traiter et comprendre leurs sentiments dans un espace sain qui ne leur était pas accessible il y a seulement dix ans. En substance, ces directives sur ce qu'une personne est autorisée à partager sont définies par une norme morale arbitraire où les discussions sur le sexe, en particulier celles qui se situent en dehors du domaine de l'hétéronormatif, sont quelque chose dont il faut se protéger, même s'il y a très peu d'espaces qui les autorisent dans la vie réelle.

Instagram, Twitter, TikTok, Facebook ont tous la réputation d'être superficiels et de reposer sur l'auto-gratification des gens qui veulent exister et être vus (ce qui n'est même pas une mauvaise chose en soi), mais à côté de cela, ils peuvent être utilisés pour partager des idées, des pensées politiques et des savoirs. Ainsi, lorsque des créateurs noirs qui tentent d'informer les masses sont empêchés de partager des informations ou lorsque des messages de travailleurs du sexe sur la misogynie sont inaccessibles parce que leur page est considérée comme trop "sexuellement suggestive" (terme indéfini et donc difficile à traiter), le silence est assourdissant. Le shadowbanning est une menace pour nous tous car il maintient l'illusion du contrôle. Or, cette idée est synonyme de censure et d'obstruction à l'information. De plus, cette obstruction est dictée par ce que les plateformes considèrent comme approprié, de sorte que le pouvoir que nous supposions avoir dans nos voix peut constamment être réduit au silence.

Auteur: Oluwakemi Agunbiade

Info: https://cherwell.org/, 3 septembre 2020

[ pouvoir numérique ]

 

Commentaires: 0

Ajouté à la BD par miguel

postérité lacanienne

Lorsqu’en janvier 1980, Lacan dissout son École Freudienne de Paris, il motive son acte de ce qu’il appelle l’"échec de la passe", passe de l’analysant à l’analyste, qui était la raison même de la fondation de son École.

Lacan, parce qu’il se demandait "que peut-il se passer dans la tête de quelqu’un ayant fait une analyse pour vouloir devenir analyste ?" était parti de l’hypothèse qu’une "passe" de l’analysant à l’analyste était un fait de structure, témoin que le sujet n’était plus du tout le même à sa sortie qu’à son entrée, ayant constaté dans sa pratique "qu’il y vient comme une boule dans un jeu de tric-trac".

Lacan invente donc une procédure pour tirer ça au clair, parce qu’il souhaite que les psychanalystes se reconnaissent entre eux comme tels, à partir de l’analyse et non pas sur la base de critères préétablis de type universitaire et autres, confrérie, initiation, cooptation, copinage...

Il construit donc la procédure de la passe sur le modèle du mot d’esprit.

Un "passant" raconte son "hystoriole analytique", à un quidam comme lui qui en sera le "passeur", pour un jury de la même veine qui devra apprécier si ça tient debout.

Exemple: le "passant" raconte qu’il a rencontré Salomon Rothschild aux Bains de Lucques et que ce dernier l’a traité d’une façon tout à fait "familonnaire", le passeur prend note et va transmettre ça, texto, au jury, et tout le monde est plié de rire, car ils sont de la même chapelle (la chapelle évoquant bien entendu l’église, comme c’est souvent le cas dans les groupes analytiques...)

Où en est-on aujourd’hui avec cette "passe", 40 ans après la dissolution par Lacan de l’École Freudienne de Paris?

La passe s’est bien sûr transformée en impasse pour la transmission de la psychanalyse...

Jacques-Alain Miller (JAM pour les médias, depuis qu’il est devenu inséparable de l’indécrottable BHL) fait donc. après la mort de Lacan, main basse sur ce qui reste de la machinerie lacanienne et impose son "idée" que la passe (où il n’avait strictement jamais mis les pieds du temps de Lacan) c’était ...la "traversée du fantasme"!, un hapax lacanien que Lacan lui-même n’a jamais exploité (et pour cause... la traversée du fantasme, cela veut dire exactement le contraire de ce qu’on croit en comprendre a priori, c'est à dire qu'on pourrait vivre en dehors de toute illusion — ce qui est le fantasme ultime — traverser le fantasme signifie précisément renoncer au fantasme d’y échapper, le sujet a traversé le fantasme lorsqu'il accepte en soi et pour soi la nécessité constitutive de l'illusion. Son illusion. Chacun ne voit le monde qu'à travers la fenêtre de son fantasme fondamental...)

Bref, depuis plus de vingt ans, Colette Soler a aligné elle aussi son École des Forums du Champ Lacanien sur le diktat millerien, qui s’il n’a strictement aucun rapport avec la passe telle que Lacan l’avait imaginée et tenté de la mettre en œuvre avant d’en constater l’échec, s’avère très utile et particulièrement efficace pour asseoir son pouvoir personnel, et développer une expansion sans limite en montant des comptoirs un peu partout dans le monde, au nom de la "politique de la psychanalyse", comptoirs que viennent visiter de temps en temps des psychanalystes de "renommée mondiale" (!) pour renforcer le gouverneur, mis en place, adoubé par les "locaux", et à l’occasion lui remonter un peu les "bretelles" de la théorie...

Bien entendu, Miller est celui qui a poussé le bouchon le plus loin en se substituant au "cartel de la passe" pour nommer Analyste de l’École (AE) un de ses propres analysants, que le cartel n’avait pas nommé...

Ah, elle aura été tripotée cette pauvre "passe" qui aurait dû signaler la sortie du transfert, et qui en réalité fait la preuve que l’impétrant est au contraire toujours "sous-transfert", passant un examen comme pour entrer à l’École, selon une pure procédure de type universitaire, une formalité plus ou moins colorée de cooptation, à l’opposé radical de l’éthique psychanalytique...

Comment ces dérives (de la jouissance) pervertissent-elles la transmission de la psychanalyse?

Au grand dam du Discours de l’Analyste, que les psychanalystes authentiques s’efforcent de vouloir servir, c’est bien le Discours Universitaire (dont le Signifiant maître sous la barre permet d’éradiquer discrètement le grain de sable de l’énonciation) qui régit massivement l’économie relationnelle de ces groupes, les pratiques perverses de domination et de soumission sont devenues l’ordinaire des institutions psychanalytiques qui n’ont de psychanalyse que le nom, la logique qui les domine étant précisément celle du discours dominant, psychologisant, sociologisant, moralisant ...et démoralisant.

Les deux multinationales Millerienne et Solerienne poursuivent leur développement conformément aux vœux de l’étude de marché, la première commandée par le Capitaine "Win-Win" (surnommé ouin-ouin par les moqueurs) ; l’autre pilotée par "La Solaire", comme elle se surnomme elie-même, qui après avoir rejeté la prétention de Miller à incarner le "Plus-Un" du groupe en a fondé un autre, et qui à force de vouloir y briller jour et nuit en est devenue "La Peluce-Une", ou "La-femme-qui-existe"...

L’obstination des deux professeurs d’université à faire coller l’enseignement lacanien avec leurs rêves de suprématie (leur fantasme d’immortalité symbolique) a donc fini par naufrager la transmission de l’enseignement lacanien sur le roc de "la passe" qui affleure dans des eaux peu profondes, raison pour laquelle ils ne coulent pas, mais demeurent couchés sur le flanc, les forçant à réinventer ce qui n’était pas du tout à retoquer chez Lacan...

Auteur: Dubuis Santini Christian

Info: Publication facebook du 24.02.2021

[ incompréhension ] [ dévoiement ] [ idéalistes ] [ parisianisme ]

 
Commentaires: 1
Ajouté à la BD par Coli Masson

pouvoir sémantique

Wokisme, un protestantisme déréglé?

À l’instar de plusieurs chercheurs américains qu’il cite largement dans son étude*, l'auteur observe dans cet activisme progressiste un post-protestantisme débarrassé de sa théologie, soit un nouveau puritanisme entièrement sécularisé.

L’analogie? "La rédemption des péchés du monde ne se réalise plus à travers le sacrifice christique, mais par celui du bouc émissaire, à savoir la figure de l’homme blanc hétérosexuel, symbole qui réunit les trois fautes à la racine des injustices sexuelles, raciales et de genre: la masculinité, la blanchité et l’hétéronormativité", lit-on dans le document. Ou encore: "Les rêves d’une société parfaite que le christianisme reportait à un Royaume céleste doivent être matérialisés ici-bas et immédiatement." Interview avec un chercheur très critique à l’endroit de son objet d’étude.

- Le wokisme découlerait du protestantisme. Comment cela?

- Un certain nombre d’intellectuels protestants et catholiques nord-américains analysent le phénomène woke comme une forme de protestantisme sécularisé, c’est-à-dire l’idée qu’un certain nombre de thèmes chrétiens (l’Éden, le péché originel, la confession, le blasphème, etc.) ont été capturés par la frange progressiste de la gauche et transférés dans le champ politique. L’orthodoxie morale n’est plus produite par les Églises mais par les divers activismes qui composent le mouvement de la Justice Sociale (anti-racisme, droits LGBT, féminisme, etc. ndlr).

- Concrètement, de quelle manière se manifeste ce nouveau puritanisme?

- De multiples manières et à différents étages de la société. Essentiellement, ce puritanisme est le produit de l’hégémonie de la gauche dans les champs intellectuel et culturel. Il fabrique des hiérarchies et des tabous utiles à un certain nombre de groupes d’intérêt et circonscrit les interprétations dicibles dans les universités et les grands médias.

- On assiste, avec ce courant, à une nouvelle moralisation de l’espace public, avec une mobilisation autour de la notion de justice sociale et le souci des minorités. Ne faudrait-il pas s’en réjouir?

- Plus d’un s’en réjouissent, mais je ne partage pas cet optimisme. L’impact des idées politiques ne s’évalue pas à partir des intentions de leurs promoteurs. Or nous avons affaire à un mouvement profondément anti-libéral et passablement anti-scientifique – il suffit de lire les intellectuels qui nourrissent ce phénomène pour s’en convaincre. Rien n’est plus dangereux que des révolutionnaires qui s’imaginent pur de cœur.

- Plusieurs observateurs parlent d’une "religion civile". L’analogie au champ religieux vous semble-t-elle pertinente ?

- Elle est pertinente pour deux raisons: la première est que le wokisme fonctionne à la manière des cosmographies religieuses, c’est-à-dire qu’il procure une explication globale du fonctionnement de la société et de l’histoire, et offre à ses ouailles sens, ordre et direction. La seconde est que le comportement sectaire et les hyperboles moralisantes des activistes invitent naturellement une comparaison avec les mouvements religieux fondamentalistes. Pour preuve, le recours à des concepts infalsifiables et tout-puissants, comme le "patriarcat" ou le "racisme systémique".

- Comment comprendre que le langage du wokisme soit si présent au sein du monde protestant et de ses Églises?

- Il y a aussi beaucoup de résistance, mais je suppose qu’une partie du clergé entend profiter de la vitesse acquise de cette nouvelle religion civile, reproduisant des comportements analogues aux Églises, et capable de mobiliser certains segments de la population. Articulé autour de notions de justice sociale, d’équité, d’inclusivité, le militantisme woke peut assez aisément être réapproprié dans un contexte ecclésial. On peut aussi s’attendre à une demande par le bas, un certain nombre de membres motivés dans les communautés exigeant de leur hiérarchie un positionnement sur les grands thèmes du jour. La chose n’est pas très surprenante quand on pense, par exemple, à l’influence que le marxisme a pu exercer sur les théologiens de la libération en Amérique latine. Les Églises ne sont pas imperméables aux modes. 

- Vous pointez, au sein de ce phénomène, l’absence de "gardes-fous théologiques". Qu’entendez-vous par là?

- L’idée qu’un corpus théologique, qui s’est construit à travers des siècles d’affinage et de conciles, procure un cadre normatif à des notions de justice, de péché ou de rédemption. Libérées de ce cadre et réintroduites dans une religiosité révolutionnaire, ces idées prennent le mors aux dents. Le Royaume des Cieux se transforme en l’ambition d’établir ici-bas une société parfaitement égalitaire, quels qu’en soient les coûts.

- Vous êtes très critique à l’égard de ce mouvement. En quoi considérez-vous qu’il tende à glisser dans le fondamentalisme, voire le totalitarisme?

- La volonté de faire disparaître toutes les "inégalités", c’est-à-dire ici les disparités entre sexes ou entre populations, requiert nécessairement un État autoritaire régulant et corrigeant les effets des choix individuels. L’autoritarisme de la gauche progressiste n’est pas simplement la conséquence accidentelle d’une raideur idéologique propre au militantisme. Tout comme l’illustre l’histoire des économies planifiées, l’autoritarisme est l’inévitable propriété émergente du système.

- Votre étude souligne la contradiction de ce mouvement, dont les membres se proviennent majoritairement des classes les plus aisées…

- L’hypothèse que je trouve la plus séduisante a été formulée par le psychologue Rob Henderson: les classes supérieures nord-américaines signalent leur statut, c’est-à-dire se reconnaissent entre pairs et se distinguent du peuple, non plus seulement à l’aide de produits de luxe, mais aussi à l’aide d’idées luxueuses. Les coûts de ces idées sont assumés par les classes populaires tandis que les bénéfices à la fois matériels et immatériels sont capturés par les classes supérieures. Selon cette perspective, le wokisme est un outil dans un jeu de pouvoir et de statut. Son adoption signale son appartenance au camp du Bien et son institutionnalisation assure des débouchés professionnels à toute une classe de diplômés issus de filières académiques où le savoir tend à se dissiper au profit de l’activisme.

- N’allez-vous pas un peu loin en dénonçant une stratégie qui serait à nouveau profitable aux plus privilégiés, en faisant fi de leurs bonnes intentions?

-
Je ne pense pas que les activistes dont nous parlons ici soient des cyniques travaillant consciemment à consolider leur statut et je ne doute pas que leur mobilisation puise son énergie dans de bonnes intentions. Le problème réside dans la confusion entre les slogans et la réalité, d’une part, et dans la perception naïve que les bonnes intentions font de bonnes réformes, d’autre part. Or les réformes proposées par ces activistes (qui sont articulées sur toute une batterie de programmes préférentiels, de coûteuses formations, de régulations du langage) oscillent le plus souvent entre l’inutile et le contre-productif. 

Auteur: Moos Olivier

Info: Entretien avec Anne-Sylvie Sprenger à propos de *"The Great Awokening. Réveil militant, Justice Sociale et Religion", Religioscope, déc. 2020

[ cancel culture ] [ erreur catégorielle ] [ antispiritualisme ] [ bien maléfique ]

 

Commentaires: 0

Ajouté à la BD par miguel

pédagogie

Les parents envoient leurs enfants à l'école avec les meilleurs intentions, pensant que c'est ce dont ils ont besoin pour devenir des adultes productifs et épanouis. Beaucoup doutent du bon fonctionnement des écoles, mais la sagesse conventionnelle veut que ces problèmes peuvent être résolus avec plus d'argent, de meilleurs enseignants, des programmes plus difficiles, et/ou des examen plus rigoureux.
Mais si le problème était l'école en elle-même ? La triste réalité est que l'une de nos institutions préférées est, par sa nature même, ne répond pas aux besoins de nos enfants et de notre société.
L'école est un lieu où les enfants doivent obligatoirement aller, et où leur liberté est fortement restreinte - bien plus restreinte que le toléreraient la plupart des adultes pour leurs lieux de travail. Ces dernières décennies, nous avons forcés nos enfants à rester de plus en plus de temps dans ce genre de cadre, et des preuves solides (résumées dans mon dernier livre) indiquent que c'est souvent la cause de graves dommages psychologiques. Par ailleurs, plus les scientifiques étudient le mode d'apprentissage naturel des enfants, plus nous comprenons que les enfants apprennent profondément et véritablement, et avec plus d'enthousiasme, dans des conditions presque opposées à celles de l'école.
La scolarité obligatoire fait partie intégrante de notre culture depuis plusieurs générations. La plupart des gens auraient du mal à imaginer aujourd'hui comment les enfants apprendraient ce dont ils ont besoin pour réussir dans notre culture sans l'école. Le président Obama et le secrétaire à l'éducation Arne Duncan aiment tellement l'école qu'ils souhaiteraient même allonger les jours et les années scolaires. La plupart des gens pensent que la conception de base des écoles, telle qu'on la connaît aujourd'hui, est validée par des preuves scientifiques qui montreraient que c'est ainsi que les enfants apprennent le mieux. Mais en réalité, rien n'est plus éloigné de la vérité.
Les écoles telles que nous les connaissons aujourd'hui sont le produit de l'histoire, et non pas d'une recherche sur l'apprentissage. La conception actuelle de nos écoles découle de la Réforme protestante, lorsque des écoles ont été créées pour apprendre aux enfants à lire la Bible, à croire l'Ecriture et les figures d'autorité sans les remettre en question. Les premiers fondateurs des écoles l'indiquaient clairement dans leurs écrits. L'idée que les écoles puissent permettre le développement de la pensée critique, de la créativité, de l'initiative personnelle ou de la capacité à apprendre par soi-même - le genre de compétences les plus importantes dans notre économie actuelle - ne leur effleurait même pas l'esprit. Pour eux, encourager les enfants à agir par eux-mêmes était un péché qu'il fallait casser ou réprimer.
Ce n'est pas parce que les écoles ont été reprises par l'Etat, sont devenues obligatoires et à but laïque, que la structure de base et les méthodes d'enseignement ont changé. Les tentatives ultérieures de réformes ont échoué, et même si elles ont joué sur des points mineurs de la structure, elles n'ont pas modifié la conception de base. La méthode hiérarchique, par l'évaluation, qui suppose que l'apprentissage est motivé par un système de récompense et de punitions plutôt que par la curiosité et un vrai désir d'apprendre, sert surtout à l'endoctrinement et l'obéissance et pas à grand-chose d'autre. Il n'est pas étonnant que de nombreux grands entrepreneurs et innovateurs dans le monde ont quitté l'école à un jeune âge (comme Thomas Edison), ou disaient détecter l'école et apprendre de leur côté, et pas grâce à elle (comme Albert Einstein).
Il n'est pas étonnant qu'aujourd'hui même les " meilleurs élèves " (et peut-être surtout eux) disent souvent être " lessivés " par le processus de scolarisation. Un des meilleurs étudiants diplômés, a expliqué à un journaliste pourquoi il remettait à plus tard l'université : " j'étais rongé par le fait de bien réussir et je ne dormais pas beaucoup ces dernières deux années. J'avais cinq ou six heures de devoirs tous les soirs. La dernière chose que je voulais était que ça continue. "
La plupart de élèves - qu'ils aient de bons résultats, des résultats moyens ou qu'ils soient en échec scolaire - ont perdu leur goût de l'apprentissage au moment où ils entrent au collège ou au lycée. Dans une récente étude, Mihaly Czikszentmihalyl et Jeremy Hunter ont placé sur plus de 800 élèves de la sixième jusqu'à la terminale, dans 33 écoles différentes du pays, une montre-bracelet spéciale qui émettait un signal spécial à des moments aléatoires de la journée. A chaque fois que le signal retentissait, ils devaient remplir un questionnaire indiquant où ils étaient, ce qu'ils faisaient et s'ils étaient heureux ou malheureux. Ils étaient de loin le moins heureux quand ils étaient à l'école et ils étaient le plus heureux quand ils étaient hors de l'école, à jouer ou discuter avec des amis. A l'école, ils éprouvaient de l'ennui, de l'anxiété ou les deux. D'autres chercheurs ont montré qu'à chaque nouvelle année, les élèves adoptent des attitudes de plus en plus négatives envers les matières enseignées, en particulier pour les mathématiques et les sciences.
La société en général tend à ignorer ces conclusions. Nous ne sommes pas surpris de voir que l'apprentissage soit désagréable. Nous pensons que c'est une pilule à avaler qui finira par payer sur le long terme. Certaines personnes pensent même que le fait même que l'école soit désagréable est une bonne chose car elle permet aux enfants d'apprendre à tolérer les situations désagréables, car la vie après l'école est désagréable. Peut-être que ce triste point de vue découle de l'école. Bien sûr, il y a des hauts et des bas dans la vie, à l'âge adulte comme dans l'enfance. Mais il y a bien des façons d'apprendre à tolérer les désagréments sans devoir rajouter une scolarité désagréable. La recherche a montré que les personnes de tous âges apprennent mieux quand elles sont motivées, approfondissant des questions qui les concernent réellement, et des objectifs qui sont leurs propres dans la vie. Dans de telles conditions, apprendre est en général amusant.
J'ai passé une grande partie de ma carrière de chercheur à étudier comment les enfants apprennent. Les enfants viennent au monde avec la capacité magnifique de diriger leur propre éducation. La nature leur a donnés de puissants instincts éducatifs, comme la curiosité, le ludisme, la sociabilité, l'attention à ce qu'il se passe autour d'eux, le désir de grandir et de faire ce que les enfants plus âgés et adultes peuvent faire.
La preuve que tout cela s'applique aux petits enfants se trouve sous les yeux de tous ceux qui ont regardé un enfant grandir de la naissance jusqu'à l'âge scolaire. Par leurs propres efforts, les enfants apprennent à marcher, courir, sauter et grimper. Ils apprennent leur langue maternelle à partir de rien, et partant de là, apprennent à affirmer leur volonté, débattent, amusent, ennuient, se font des amis, charment et posent des questions. En interrogeant et en explorant, ils acquièrent énormément de connaissances sur leur environnement matériel et social, et par leur jeu, des compétences pratiques qui favorisent leur développement physique, intellectuel, social et émotionnel. Ils font tout cela avant que quiconque, de quelque manière systématique que ce soit, essaye de leur enseigner quelque chose.
Cette progression et capacité d'apprendre étonnante ne s'arrête pas toute seule quand l'enfant a 5 ou 6 ans. C'est nous qui y mettons un terme avec ce système coercitif qu'est l'école. La plus importante et mémorable leçon de notre système scolaire est que l'apprentissage sous la forme d'un travail doit être évité autant que possible.
Mes recherches portaient sur l'apprentissage chez les enfants qui sont " d'âge scolaire " mais qui ne sont pas envoyés à l'école, ou qui ne sont pas dans une école tel qu'on l'entend habituellement. J'ai examiné comment les enfants apprennent dans les cultures qui n'ont pas d'écoles, surtout les cultures de chasseurs-cueilleurs, les genres de cultures dans lesquelles notre espèce a évolué. J'ai également étudié l'apprentissage dans notre culture, quand on laisse aux enfants le soin de leur propre éducation et qu'on leur donne la possibilité et les moyens de s'instruire eux-mêmes. Dans ces conditions, la curiosité naturelle des enfants et leur goût de l'apprentissage persiste tout au long de l'enfance et de l'adolescence, jusqu'à l'âge adulte.

Auteur: Gray Peter

Info: Internet

[ fermeture ] [ normalisation ] [ pouvoir ] [ judéo christianisme ]

 

Commentaires: 0

interactions

L'épigénétique, l'hérédité au-delà de l'ADN
Des mécanismes ne modifiant pas notre patrimoine génétique jouent un rôle fondamental dans le développement de l'embryon. Ils pourraient expliquer comment l'environnement induit des changements stables de caractères, voire des maladies, éventuellement héritables sur plusieurs générations.

L'épigénétique, c'est d'abord cette idée que tout n'est pas inscrit dans la séquence d'ADN du génome. "C'est un concept qui dément en partie la "fatalité" des gènes", relève Michel Morange, professeur de biologie à l'ENS. Plus précisément, "l'épigénétique est l'étude des changements d'activité des gènes - donc des changements de caractères - qui sont transmis au fil des divisions cellulaires ou des générations sans faire appel à des mutations de l'ADN", explique Vincent Colot, spécialiste de l'épigénétique des végétaux à l'Institut de biologie de l'Ecole normale supérieure (ENS-CNRS-Inserm, Paris).

Est-ce la fin de l'ère du "tout-ADN", qui a connu son apogée vers l'an 2000 avec les grandes manoeuvres du séquençage du génome humain ? "L'organisme reste construit à partir de ses gènes, même si l'activité de ceux-ci peut être modulée", tempère Michel Morange.

Mais le séquençage des génomes l'a révélé avec éclat : la connaissance seule de la séquence de l'ADN ne suffit pas à expliquer comment les gènes fonctionnent. C'était pourtant prévisible : si cette connaissance suffisait, comment expliquer que malgré leur génome identique, les différents types de cellules d'un individu développent des caractères aussi différents que ceux d'un neurone, d'une cellule du foie, des muscles ou de la peau ?

L'épigénétique répond en partie à cette interrogation - mais elle en soulève de nombreuses autres. "Le cadre classique de l'épigénétique, c'est le développement de l'embryon et la différenciation des cellules de l'organisme", indique Vincent Colot. Mais ses enjeux concernent également la médecine et la santé publique... et les théories sur l'évolution. Elle jette le soupçon sur l'environnement, qui pourrait moduler l'activité de certains de nos gènes pour modifier nos caractères, voire induire certaines maladies qui pourraient être transmis(es) à la descendance.

La première question, cependant, est celle de la définition de ce fascinant concept. Un certain flou persiste, même chez les scientifiques. "Ces ambiguïtés tiennent au fait que le terme a été introduit à plusieurs reprises dans l'histoire de la biologie, avec à chaque fois un sens différent", raconte Michel Morange, qui est aussi historien des sciences. Précurseur absolu, Aristote invente le terme "épigenèse" - de épi-, "au-dessus de", et genèse, "génération" - vers 350 avant notre ère.

"Observant des embryons de poulet, Aristote découvre que les formes ne préexistent pas dans le germe, mais sont, au contraire, progressivement façonnées au cours du développement embryonnaire", rapporte Edith Heard, qui dirige une équipe (Institut Curie-Inserm-CNRS) sur l'épigénétique du développement des mammifères. Une vision admirablement prémonitoire, qui ne se verra confirmée qu'avec l'invention du microscope à la fin du XVIIe siècle.

Quant au mot "épigénétique", il apparaît en 1942 : on le doit au généticien anglais Conrad Waddington, qui s'attache à comprendre le rôle des gènes dans le développement. Comment s'opère le passage du génotype (l'ensemble des gènes) au phénotype (l'ensemble des caractères d'un individu) ? A l'époque, on ignorait que l'ADN est le support de l'hérédité. Mais les liens entre génotype et phénotype se précisent peu à peu, à mesure qu'on découvre la structure des gènes et leur mode de régulation. Une étape décisive est franchie avec les travaux de François Jacob, Jacques Monod et André Lwoff, Prix Nobel en 1965 : ils montrent l'importance d'un facteur de l'environnement (la présence d'un sucre, le lactose) dans le contrôle de l'expression d'un gène et la détermination d'un caractère (la capacité de la bactérie E. coli à utiliser le lactose comme source d'énergie).

Le concept d'épigénétique tombe ensuite en relative déshérence, pour renaître dans les années 1980 avec son sens moderne. "Un chercheur australien, Robin Holliday, observe dans des cellules en culture des changements de caractères qui sont transmis au fil des divisions cellulaires, relate Vincent Colot. Mais ces changements semblaient trop fréquents pour pouvoir être causés par des mutations de l'ADN." Holliday découvre le rôle, dans cette transmission, de certaines modifications de l'ADN qui n'affectent pas la séquence des "nucléotides", ces lettres qui écrivent le message des gènes.

Plus largement, on sait aujourd'hui que les gènes peuvent être "allumés" ou "éteints" par plusieurs types de modifications chimiques qui ne changent pas la séquence de l'ADN : des méthylations de l'ADN, mais aussi des changements des histones, ces protéines sur lesquelles s'enroule l'ADN pour former la chromatine. Toutes ces modifications constituent autant de "marques épigénétiques". Elles jalonnent le génome en des sites précis, modulant l'activité des gènes localisés sur ces sites.

Quelle est la stabilité de ces marques épigénétiques ? La question est centrale. Certaines sont très transitoires, comme les marques qui régulent les gènes liés aux rythmes du jour et de la nuit. "Au moins 15 % de nos gènes sont régulés d'une façon circadienne : leur activité oscille sur un rythme de 24 heures. Il s'agit de gènes qui gouvernent notre métabolisme, assurant par exemple l'utilisation des sucres ou des acides gras", indique Paolo Sassone-Corsi, qui travaille au sein d'une unité Inserm délocalisée, dirigée par Emiliana Borrelli à l'université de Californie (Irvine). "Pour réguler tant de gènes d'une façon harmonieuse, il faut une logique commune. Elle se fonde sur des processus épigénétiques qui impliquent des modifications des histones."

D'autres marques ont une remarquable pérennité. "Chez un individu multicellulaire, elles peuvent être acquises très tôt lors du développement, sous l'effet d'un signal inducteur, rapporte Vincent Colot. Elles sont ensuite transmises au fil des divisions cellulaires jusque chez l'adulte - bien longtemps après la disparition du signal inducteur." Les marques les plus stables sont ainsi les garantes de "l'identité" des cellules, la vie durant. Comme si, sur la partition d'orchestre de l'ADN du génome - commune à toutes les cellules de l'organisme -, chaque instrument - chaque type de cellule - ne jouait que la partie lui correspondant, n'activant que les gènes "tagués" par ces marques.

Un des plus beaux exemples de contrôle épigénétique chez les mammifères est "l'inactivation du chromosome X". "Ce processus a lieu chez toutes les femelles de mammifères, qui portent deux exemplaires du chromosome X, explique Edith Heard. L'inactivation d'un des deux exemplaires du X, au cours du développement précoce, permet de compenser le déséquilibre existant avec les mâles, porteurs d'un seul exemplaire du X."

Si l'inactivation du X est déficiente, l'embryon femelle meurt très précocement. Cette inactivation est déclenchée très tôt dans le développement de l'embryon, "dès le stade "4 cellules" chez la souris et un plus tard pour l'espèce humaine, puis elle est stabilisée par des processus épigénétiques tout au long de la vie", poursuit Edith Heard. Par ailleurs, son équipe vient de publier un article dans Nature mis en ligne le 11 avril, montrant que les chromosomes s'organisent en "domaines", à l'intérieur desquels les gènes peuvent être régulés de façon concertée, et sur lesquels s'ajoutent des marques épigénétiques.

Les enjeux sont aussi médicaux. Certaines "épimutations", ou variations de l'état épigénétique normal, seraient en cause dans diverses maladies humaines et dans le vieillissement. Ces épimutations se produisent par accident, mais aussi sous l'effet de facteurs environnementaux. Le rôle de ces facteurs est très activement étudié dans le développement de maladies chroniques comme le diabète de type 2, l'obésité ou les cancers, dont la prévalence explose à travers le monde.

Les perspectives sont également thérapeutiques, avec de premières applications qui voient le jour. "Les variations épigénétiques sont finalement assez plastiques. Elles peuvent être effacées par des traitements chimiques, ce qui ouvre d'immenses perspectives thérapeutiques. Cet espoir s'est déjà concrétisé par le développement de premières "épidrogues" pour traiter certains cancers", annonce Edith Heard.

Le dernier défi de l'épigénétique, et non des moindres, renvoie aux théories de l'évolution. "Alors que le génome est très figé, l'épigénome est bien plus dynamique", estime Jonathan Weitzman, directeur du Centre épigénétique et destin cellulaire (université Paris-Diderot-CNRS). "L'épigénome pourrait permettre aux individus d'explorer rapidement une adaptation à une modification de l'environnement, sans pour autant graver ce changement adaptatif dans le génome", postule le chercheur. L'environnement jouerait-il un rôle dans la genèse de ces variations adaptatives, comme le croyait Lamarck ? Reste à le démontrer. Epigénétique ou non, le destin est espiègle : le laboratoire qu'anime Jonathan Weitzman n'a-t-il pas été aléatoirement implanté... dans le bâtiment Lamarck ? Internet,

Auteur: Internet

Info: Rosier Florence, https://www.lemonde.fr/sciences/ 13 avril 2012

[ interférences ] [ mutation acquise ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0