Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 641
Temps de recherche: 0.0453s

être humain

Qu’est-ce qui sépare vraiment l’humain de l’animal ?

L’humain fait partie du groupe des primates. Dans cet article de The Conversation, on plonge toutefois dans les méandres de la classification du vivant.

En ces temps de crise de la biodiversité et de questionnements sur le vivant, la vieille question de la dualité homme-animal est, semble-t-il, toujours d’actualité. Même si le " vraiment " de la question laisse entendre qu’au fond la séparation n’est pas si profonde.

Sur le plan de la biologie, de la zoologie même, devrait-on préciser, le paradoxe a été levé depuis longtemps. L’homme est un animal. Il ne peut donc se séparer de lui-même.

La question n’est donc plus de nature scientifique, mais philosophique et sociologique. Il reste que pour la plupart d’entre nous la réponse scientifique importe peu tant les termes sont connotés. Affirmer que l’homme est un animal a peu de poids. L’affirmation serait-elle admise que la question deviendrait : qu’est-ce qui distingue l’humain des autres animaux ?

Une classification de l’humain parmi les primates

Depuis des siècles, les caractéristiques biologiques de l’humanité ont toutes été intégrées dans le panorama des traits des êtres vivants en général et des animaux en particulier. Et pourtant, l’homme s’est quasiment toujours singularisé par rapport au reste du monde vivant. Toute une tradition de réflexion philosophique et spirituelle s’oppose à la vision unitaire de la science biologique.

C’est là le grand problème que Linné au 1VIIIe siècle a cru résoudre définitivement. Dans son Systema Naturae dont la 10e édition datant de 1758 est considérée comme le point de départ de la nomenclature zoologique moderne, l’homme, genre Homo, est classé, parmi les animaux, dans l’ordre des Primates – les " premiers ", noblesse oblige –, mais en compagnie de trois autres genres : Simia (les singes), Lemur (les lémuriens incluant, pour Linné, le galéopithèque, un petit mammifère arboricole planeur d’Indonésie) et Vespertilio (les chauves-souris).

Ce choix est significatif et fait de Linné un pionnier qui, d’une certaine manière, dépassa les concepts de la majorité de ses successeurs du 1IXe siècle. De fait, en 1910, une fois la biologie devenue évolutionniste, l’anatomiste William K. Gregory nomma Archonta un groupe réunissant les primates (singes, lémuriens, homme), les chauves-souris (ordre des chiroptères), le galéopithèque (ordre des dermoptères) à quoi s’ajoutent des mammifères insectivores inconnus de Linné, les toupayes (mammifères arboricoles d’Asie).

L’homme était non seulement un membre des Primates, mais aussi un membre des Mammalia (tous ces termes sont dus à Carl Von Linné). On peut remonter la hiérarchie classificatoire et inclure l’homme dans les amniotes, dans les vertébrés, dans les animaux. Les animaux, c’est-à-dire dans les classifications le règne des Animalia, aujourd’hui appelé Metazoa (mot qui signifie la totalité des animaux) – les deux termes sont synonymes.

Le terme de Metazoa à la sonorité incontestablement scientifique ne heurte aucune oreille. Dire que l’homme est un métazoaire ne choque personne. Dire qu’il est un métazoaire parce qu’il est pluricellulaire et possède une protéine qui structure le lien entre les cellules – le collagène – est affaire de spécialistes et empêche invariablement toute percée philosophique. Aucune sensibilité là-dedans. Un animal, c’est autre chose, n’est-ce pas ?

D’autres ont voulu placer l’humain hors du règne animal

Linné à sa manière a été un révolutionnaire. Ses successeurs se sont attachés à défaire le regroupement des Primates. Le naturaliste français Armand de Quatrefages classa en 1861 l’homme seul dans le " règne humain ", caractérisé par " l’âme humaine " reprenant une suggestion émise plus de quarante ans auparavant par l’agronome lamarckien Charles-Hélion de Barbançois : classer l’homme dans un règne à part, le " règne moral ".

Quatrefages s’attacha autant à réfléchir à l’unité de l’espèce humaine qu’à analyser la singularité de ses composantes. Pour Quatrefages, en savant positiviste, c’est-à-dire qui s’en tient aux faits, la notion de Règne (la plus haute des catégories de la classification) s’impose à l’esprit humain : les caractères qui définissent l’homme sont évidents et ne sont liés à aucune hypothèse ou théorie.

L’âme humaine, différente de l’âme animale serait un pur fait d’observation. Auparavant, l’anatomiste allemand Johann Friedrich Blumenbach et l’anatomiste français Georges Cuvier opposèrent l’homme seul (ordre des Bimana) aux autres primates (ordre des Quadrumana). Le naturaliste allemand J. C. Illiger avait classé l’homme seul (seul à être debout) dans les Erecta, tandis que l’anatomiste britannique Richard Owen, adversaire résolu du darwinisme, en fit le seul représentant des Archencephala, introduction notable du cerveau comme spécificité humaine.

On peut remarquer toutefois qu’à l’exception de Quatrefages, tous les autres auteurs cités subordonnent l’espèce humaine au règne animal et à la classe des mammifères. On saisit bien la difficulté de ces anatomistes distingués qui, bien conscients des caractères morphologiques et physiologiques qui tout en intégrant parfaitement l’homme dans les mammifères, étaient tentés irrépressiblement, aussi en tant que croyants, de l’opposer au reste de la création.

" L’homme sage " — Homo sapiens

L’anatomiste, celui qui décide, c’est bien l’homme, Homo sapiens (" l’homme sage " que Linné n’a pas nommé comme tel par hasard). On aura donc compris que ces affirmations taxinomiques ont pour objet de placer l’Homo sapiens à part, en fonction de traits qui lui sont propres, du psychisme à la bipédie, et non d’identifier une séquence de caractères partagés par l’homme et différents animaux.

Que l’homme soit opposé au reste du règne animal ou bien à son plus proche parent animal revient au même. Un évolutionniste tel que Julian Huxley prit en 1957 l’exemple de la classification de l’homme pour illustrer sa conception du " grade évolutif ". L’activité intellectuelle de l’homme est telle qu’elle lui suffit pour concevoir une niche écologique sans précédent. Le cerveau humain situerait l’homme, seul, au niveau de la plus haute des catégories, le règne : le règne des Psychozoa.

On le sait, le plus proche parent vivant de l’homme (Homo) est le chimpanzé (Pan). Dans les années 1960, les premières classifications incluant les deux genres dans la famille des Hominidae firent scandale. Le tableau de famille était dégradé, gâché, détruit.

7 millions d’années d’évolution

La biologie moléculaire nous dit que l’homme et les chimpanzés sont presque identiques génétiquement parlant. Mais, c’est en pure perte : on reconnaît aisément un homme d’un chimpanzé. On devrait dire : on reconnaît aisément les deux animaux. La baleine bleue et la musaraigne aussi sont des animaux, et même des mammifères, certes bien distincts. Leurs différences sont infiniment plus grandes que celles qui séparent l’homme et le chimpanzé, mais elles ne sont pas importantes à nos yeux d’hommes sages. Philosophiquement parlant, ce ne sont pas elles qui nous concernent. L’anthropocentrisme est patent. En fait, après des centaines de millions d’années d’évolution animale, la lignée humaine et celle des chimpanzés se sont séparées il y a 7 millions d’années environ.

L’homme est pétri de caractères animaux depuis le liquide amniotique dans lequel baigne l’embryon rappelant les origines aquatiques des animaux jusqu’à l’éminence mentonnière qui fait saillie à l’avant de la mâchoire inférieure (la grande invention ostéologique des humains !) en passant par tous les traits de vertébrés, de tétrapodes, de mammifères et de primates. L’homme n’est qu’un animal comme les autres et différent de tous les autres comme le sont toutes les espèces animales les unes des autres.

Peut-on se contenter d’une telle affirmation ? Les mots du quotidien sont lourds de sens et de contresens. Le verbe persiste, tenace. Malgré l’idéologie et la perte des repères scientifiques, on n’aura pas la mauvaise grâce de s’en plaindre puisque le verbe, après tout, est l’une des caractéristiques d’Homo sapiens, au moins dans la nature actuelle. 

 

Auteur: Tassy Pascal

Info: https://www.numerama.com/, 31 12 2023

[ distinguo ] [ définition ] [ animal particulier ]

 
Commentaires: 1
Ajouté à la BD par miguel

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychosomatique

Le jumeau maléfique de l'effet placebo fait des ravages, selon l'essayiste états-unien Stewart Justman, pourfendeur du diagnostic qui rend malade Comme les héros des feuilletons télévisés, l’effet placebo a un jumeau maléfique: il s’appelle "nocebo". Le placebo, rappelons-le, est ce phénomène troublant qui veut qu’un bonbon lambda avalé en croyant prendre un médicament authentique peut apporter les mêmes bienfaits que le vrai remède, grâce à la suggestion. Le nocebo fonctionne sur le même mécanisme, mais avec l’effet inverse: il fait du mal. Dites-moi que j’ai ingurgité une denrée avariée, mes boyaux se tordront. Magique? Pas vraiment: le cerveau ayant pour tâche de gérer les fonctions du corps, il n’est pas étonnant que l’information qu’il absorbe infléchisse le processus. Dans The Nocebo Effect*, Stewart Justman, essayiste états-unien partageant son œuvre entre l’histoire de la littérature et la médecine (avec des passerelles fréquentes entre les deux), évoque les ravages du nocebo dans des territoires médicaux aussi différents que l’anorexie, le syndrome de fatigue chronique, la dépression, le trouble dissociatif de l’identité, l’hyperactivité, les cancers du sein et de la prostate. Parfois, le mal est un effet direct de l’imagination, aiguillée par la propagande pharmaceutique ou par les campagnes de prévention: "Une fois mises sur le marché, des idées sur telle ou telle maladie sont en mesure de susciter la maladie elle-même", constate Justman: un diagnostic peut déployer son potentiel nocif en "semant des suggestions dans l’esprit du patient". Est-ce fréquent? La question est apparemment très peu étudiée, en partie car il est éthiquement difficile de mener des expériences consistant à créer des problèmes chez les sujets. Des indications sur le "jumeau maléfique" se nichent toutefois dans les études sur l’effet placebo. Dans une étude troublante, publiée dans l’International Journal of Clinical Practice en 1998, l’Anglais A. F. Cooper découvrait par exemple, avec un groupe de patients souffrant de polyarthrite rhumatoïde, que ceux à qui l’on administrait une brève leçon de choses sur la maladie se portaient moins bien que ceux qu’on se bornait à soigner, sans rien leur dire. Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé Dans d’autres cas, c’est le dépistage à grande échelle qui fait des dégâts, débouchant sur des traitements qui se révèlent plus nuisibles – voire plus meurtriers – que le mal qu’ils sont censés soigner. Les mises en garde viennent du champ médical lui-même, qui s’inquiète des effets pervers de la traque systématique aux cancers du sein et de la prostate: on y revient plus loin. Qu’il agisse directement sur l’individu via la suggestion ou qu’il déploie ses conséquences à travers une prise en charge médico-sociale, l’effet nocebo résulte d’un phénomène de "surdiagnostic": Overdiagnosis and Its Costs ("Le surdiagnostic et ses coûts") est le sous-titre du livre de Stewart Justman. Morphine et neurasthénie Comment ça marche? Le rapport de cause à effet semble s’afficher parfois de manière évidente. "Il apparaît que, aussi longtemps que les habitants de Hong Kong n’étaient pas au courant de l’existence de l’anorexie en Occident, ce trouble ne se manifestait pas parmi eux, mais une fois que la notion a atteint la presse et la conscience du public dans les années 1990, le phénomène a explosé", comme si "les personnes atteintes façonnaient inconsciemment leurs symptômes selon le modèle fourni par les médias". Il en va d’une manière semblable pour la neurasthénie, syndrome à la mode au cours de la Belle Epoque, "qui s’épanouit auprès des couches aisées, jusqu’à sa disparition au début du vingtième siècle". Identifié par le neurologue états-unien George Beard en 1869, le trouble était défini comme "une maladie englobante, dont le symptôme clé était une fatigue mentale et musculaire", mais dont les manifestations possibles remplissaient une liste de 70 entrées. "L’existence brève et spectaculaire de la neurasthénie témoigne de la manière dont une appellation a le pouvoir d’organiser et de mobiliser des symptômes", relève Justman. Certains maux paraissent ainsi atteindre les corps par une contagion socio-culturelle. Placebo et nocebo montrent que l’acte médical, loin d’être une simple interaction physique, est en réalité une "procédure sociale" à part entière: "Des expériences montrent que même un médicament aussi puissant que la morphine produit un effet plus important lorsqu’il est administré ouvertement, dans le cadre d’un rituel médical, que lorsqu’on le donne aux patients à leur insu." Exemple saisissant de la production d’un syndrome via le cérémoniel thérapeutique: le trouble dit "de la personnalité multiple", qui n’émerge le plus souvent qu’au moment où le soignant demande au patient de nommer ses alters egos. Sommeil et désarroi Faut-il parler de maladies imaginaires, de troubles socialement manufaturés à partir de néant? Dans le cas des symptômes de dépression, Justman suggère plutôt qu’il s’agit souvent d’états inhérents à la normalité de l’existence, qui se retrouvent médicalisés, c’est-à-dire transformés en pathologies. C’est "le désarroi commun et passager, produit par la vie elle-même, qui se résoudrait spontanément si on ne faisait rien"; ce sont "des constantes de la condition humaine", ou en tout cas "des difficultés qui se rattachent à la nature même de la civilisation". Le DSM-5, dernière édition du catalogue états-unien (et international) des troubles psychiques et de leurs symptômes, "intègre, à contrecœur, l’argument selon lequel ce qu’on appelle dépression peut être en fait une réponse justifiée à la vie elle-même". On pourrait, bien sûr, retourner la question: faut-il accepter le désarroi ordinaire en tant que composante inévitable de la normalité, ou peut-on aspirer à s’en débarrasser? Comme les sociologues Allan V. Horwitz et Jerome C. Wakefield Stewart, auteurs de Tristesse ou dépression? Comment la psychiatrie a médicalisé nos tristesses (2007), Justman défend l’existence de la mélancolie dans l’expérience humaine. D’autres cultivent le rêve utopiste de l’éradication de tout chagrin. Le problème, c’est que la médicalisation du malheur ordinaire aurait plutôt tendance à accroître la portée de ce dernier. "Ironiquement, un des effets du surdiagnostic de la dépression est que les antidépresseurs en vogue perturbent le sommeil", note Justman. Or, "un des facteurs de guérison les plus importants dans nos vies réside dans notre capacité de sombrer chaque soir dans l’endormissement réparateur"… La conscience est surestimée Y a-t-il donc un équilibre, un "bon" seuil de médicalisation à ne pas dépasser? La question est particulièrement lancinante dans le cas des cancers du sein et de la prostate. Dans les deux cas, le dépistage massif conduit à détecter et à traiter une quantité de cancers "dormants" ou "indolents" qui seraient inoffensifs et avec lesquels on vivrait sans problème. Le sein: selon une étude publiée en 2013 dans le British Medical Journal par le chirurgien Michael Baum, pour chaque décès évité par la mammographie on peut s’attendre à un chiffre de un à trois décès supplémentaires liés aux soins donnés aux femmes dépistées pour des cancers inoffensifs. La prostate: selon une étude européenne de 2009-2012, le dépistage réduit la mortalité engendrée par ce cancer, mais on compte 33 hommes rendus impuissants ou incontinents par une intervention non nécessaire pour chaque homme sauvé… Que faire? Eliminer les dépistages, plus nuisibles que bénéfiques comme le suggèrent plusieurs chercheurs? Brûler le DSM, véritable machine à surdiagnostiquer (et dénoncé en tant que tel par Robert Spitzer et Allen Frances, deux responsables successifs de la task force qui en coordonne la rédaction)? Arrêter net les campagnes d’information, sources majeures d’effets nocebo? Dans son élan, Justman jette peut-être quelques bébés avec l’eau du bain (notamment dans le domaine du traumatisme psychique). On retiendra néanmoins son éloge paradoxal de l’inconscience: nous vivons sous l’emprise d’un "culte de la conscientisation", mais "la conscience est surestimée". Notre cerveau fait son travail de gestion de la vie dans le silence des processus inconscients, où il n’est sans doute pas anodin de trop le déranger. Il travaille à notre insu, par habitude. Il est vrai que l’habitude a mauvaise presse. Et pourtant – la philosophie confucéenne et taoïste en avait l’intuition, les neurosciences le savent aujourd’hui –, "l’habitude est hautement opérationnelle, même dans des faits d’excellence".

Auteur: Ulmi Nic

Info: in le temps online du 15.9.2015 sous Effet nocebo: le patient qui en savait trop, *The Nocebo Effect. Overdiagnosis and Its Cost, par Stewart Justman, Palgrave Macmillan, 272 p

[ grégaire ] [ influençabilité ] [ corps-esprit ]

 

Commentaires: 0

nanomonde

Comment l’IA impacte la recherche sur la structure des protéines

Chaque être humain possède plus de 20 000 protéines. Par exemple l’hémoglobine qui s’occupe du transport de l’oxygène depuis les poumons vers les cellules de tout le corps, ou encore l’insuline qui indique à l’organisme la présence de sucre dans le sang.

Chaque protéine est formée d’une suite d’acides aminés, dont la séquence détermine son repliement et sa structure spatiale – un peu comme si un mot se repliait dans l’espace en fonction des enchaînements de lettres dont il est composé. Cette séquence et ce repliement (ou structure) de la protéine déterminent sa fonction biologique : leur étude est le domaine de la « biologie structurale ». Elle s’appuie sur différentes méthodes expérimentales complémentaires, qui ont permis des avancées considérables dans notre compréhension du monde du vivant ces dernières décennies, et permet notamment la conception de nouveaux médicaments.

Depuis les années 1970, on cherche à connaître les structures de protéines à partir de la seule connaissance de la séquence d’acides aminés (on dit « ab initio »). Ce n’est que très récemment, en 2020, que ceci est devenu possible de manière quasi systématique, avec l’essor de l’intelligence artificielle et en particulier d’AlphaFold, un système d’IA développé par une entreprise appartenant à Google.

Face à ces progrès de l’intelligence artificielle, quel est désormais le rôle des chercheurs en biologie structurale ?

Pour le comprendre, il faut savoir qu’un des défis de la biologie de demain est la "biologie intégrative", qui a pour objectif de comprendre les processus biologiques au niveau moléculaire dans leurs contextes à l’échelle de la cellule. Vu la complexité des processus biologiques, une approche pluridisciplinaire est indispensable. Elle s’appuie sur les techniques expérimentales, qui restent incontournables pour l’étude de la structure des protéines, leur dynamique et leurs interactions. De plus, chacune des techniques expérimentales peut bénéficier à sa manière des prédictions théoriques d’AlphaFold.

(Photo) Les structures de trois protéines de la bactérie Escherichia coli, déterminées par les trois méthodes expérimentales expliquées dans l’article, à l’Institut de Biologie Structurale de Grenoble. Beate Bersch, IBS, à partir d’une illustration de David Goodsell, Fourni par l'auteur

La cristallographie aux rayons X

La cristallographie est, à cette date, la technique la plus utilisée en biologie structurale. Elle a permis de recenser plus de 170 000 structures de protéines dans la "Protein Data Bank", avec plus de 10 000 repliements différents.

Pour utiliser la cristallographie à rayons X, il faut faire "cristalliser les protéines". On dit souvent que cette technique est limitée par la qualité de cristaux de protéines, qui est moindre pour les grosses protéines. Mais cette notion ne correspond pas toujours à la réalité : par exemple, la structure du ribosome, l’énorme machine moléculaire qui assemble les protéines, a été résolue à 2,8 angströms de résolution. Venkatraman Ramakrishnan, Thomas Steitz et Ada Yonath ont reçu le prix Nobel de chimie en 2009 pour ce travail.

Avec le développement récent du laser X à électron libre (XFEL), il est devenu possible d’étudier simultanément des milliers de microcristaux de protéines à température ambiante et à l’échelle de la femtoseconde (10-15 secondes, soit un millionième de milliardième de seconde, l’échelle de temps à laquelle ont lieu les réactions chimiques et le repliement des protéines). Cette technique permet d’imager les protéines avant qu’elles ne soient détruites. Elle est en train de révolutionner la "cristallographie cinétique", qui permet de voir les protéines "en action", ainsi que la recherche de médicaments.

Pour l’instant, l’apport d’AlphaFold à l’étude de la structure des protéines par cristallographie s’est concentré dans la génération de modèles de protéines assez précis pour appliquer la technique dite de "remplacement moléculaire" à la résolution des structures.

La spectroscopie par résonance magnétique nucléaire

Une autre méthode expérimentale pour étudier la structure des protéines est la "spectroscopie par résonance magnétique nucléaire". Alors que son alter ego d’imagerie médicale, l’IRM, regarde la distribution spatiale d’un seul signal, caractéristique des éléments chimiques dans les tissus biologiques observés, en spectroscopie par résonance magnétique nucléaire, c’est un ensemble de signaux provenant des atomes constituant la protéine qui est enregistré (ce qu’on appelle le "spectre").

Généralement, la détermination de la structure par résonance magnétique est limitée à des protéines de taille modeste. On calcule des modèles de molécules basés sur des paramètres structuraux (comme des distances interatomiques), provenant de l’analyse des spectres expérimentaux. On peut s’imaginer cela comme dans les débuts de la cartographie, où des distances entre des points de référence permettaient de dessiner des cartes en 2D. Pour faciliter l’interprétation des spectres qui contiennent beaucoup d’information, on peut utiliser des modèles obtenus par prédiction (plutôt qu’expérimentalement), comme avec AlphaFold.

En plus de la détermination structurale, la spectroscopie par résonance magnétique nucléaire apporte deux atouts majeurs. D’une part, en général, l’étude est effectuée avec un échantillon en solution aqueuse et il est possible d’observer les parties particulièrement flexibles des protéines, souvent invisibles avec les autres techniques. On peut même quantifier leur mouvement en termes d’amplitude et de fréquence, ce qui est extrêmement utile car la dynamique interne des protéines est aussi cruciale pour leur fonctionnement que leur structure.

D’autre part, la spectroscopie par résonance magnétique nucléaire permet de détecter aisément les interactions des protéines avec des petites molécules (ligands, inhibiteurs) ou d’autres protéines. Ceci permet d’identifier les sites d’interaction, information essentielle entre autres pour la conception rationnelle de molécules actives comme des médicaments.

Ces propriétés font de la spectroscopie par résonance magnétique nucléaire un outil extraordinaire pour la caractérisation fonctionnelle des protéines en complémentarité avec d’autres techniques expérimentales et l’IA.

La "cryomicroscopie électronique"

La cryomicroscopie électronique consiste à congeler ultrarapidement (environ -180 °C) un échantillon hydraté dans une fine couche de glace, qui sera traversée par les électrons. Les électrons transmis vont générer une image de l’échantillon, qui après analyse, permet d’accéder à des structures qui peuvent atteindre la résolution atomique. En comparaison, un microscope optique n’a un pouvoir résolutif que de quelques centaines de nanomètres, qui correspond à la longueur d’onde de la lumière utilisée ; seul un microscope utilisant une source possédant des longueurs d’onde suffisamment faibles (comme les électrons pour la microscopie électronique) possède un pouvoir résolutif théorique de l’ordre de l’angström. Le prix Nobel de Chimie 2017 a été décerné à Jacques Dubochet, Richard Henderson et Joachim Frank pour leurs contributions au développement de la cryomicroscopie électronique.

Avec de nombreux développements technologiques, dont celui des détecteurs à électrons directs, depuis le milieu des années 2010, cette technique est devenue essentielle en biologie structurale en amorçant une "révolution de la résolution". En effet, la cryomicroscopie électronique permet désormais d’obtenir des structures avec une résolution atomique, comme dans le cas de l’apoferritine – une protéine de l’intestin grêle qui contribue à l’absorption du fer – à 1,25 angström de résolution.

Son principal atout est de permettre de déterminer la structure d’objets de taille moyenne, au-delà de 50 000 Dalton (un Dalton correspond environ à la masse d’un atome d’hydrogène), comme l’hémoglobine de 64 000 Dalton, mais également d’objets de quelques milliards de daltons (comme le mimivirus, virus géant d’environ 0,5 micromètre).

Malgré toutes les avancées technologiques précédemment évoquées, la cryomicroscopie ne permet pas toujours de résoudre à suffisamment haute résolution la structure de "complexes", constitués de plusieurs protéines. C’est ici qu’AlphaFold peut aider et permettre, en complémentarité avec la cryomicroscopie, de décrire les interactions au niveau atomique entre les différents constituants d’un complexe. Cette complémentarité donne une force nouvelle à la cryomicroscopie électronique pour son rôle à jouer demain en biologie structurale.

Les apports d’AlphaFold

AlphaFold permet de prédire la structure de protéines uniquement à partir de leur séquence avec la connaissance acquise par la biologie structurale expérimentale. Cette approche est révolutionnaire car les séquences de beaucoup de protéines sont connues à travers les efforts des séquençages des génomes, mais déterminer leurs structures expérimentalement nécessiterait des moyens humains et techniques colossaux.

À l’heure actuelle, ce type de programme représente donc un acteur supplémentaire de complémentarité, mais ne se substitue pas aux techniques expérimentales qui, comme nous l’avons vu, apportent aussi des informations complémentaires (dynamiques, interfaces), à des échelles différentes (des sites métalliques aux complexes multiprotéiques) et plus fiables, car expérimentalement vérifiées. Au-delà de la pure détermination structurale d’une protéine isolée, la complexité des systèmes biologiques nécessite souvent une approche pluridisciplinaire afin d’élucider mécanismes et fonctions de ces biomolécules fascinantes que sont les protéines.

Auteur: Internet

Info: Published: December 19, 2022 Beate Bersch, Emmanuelle Neumann, Juan Fontecilla, Université Grenoble Alpes (UGA)

[ gnose chimique ]

 

Commentaires: 0

Ajouté à la BD par miguel

chair-esprit

Le libre-arbitre existe-t-il ? Comment le cerveau déforme la réalité temporelle
Nous avons coutume de penser que nous sommes libres de décider et de choisir nos actes. Et pourtant, une série d'expériences de neurosciences jettent un doute sur ce qu'on a l'habitude d'appeler notre libre-arbitre.
Même si elles sont largement débattues, tant du point de vue de leurs résultats scientifiques que de l'interprétation philosophique qui en est donnée, ces expériences sont plutôt troublantes !
Libre-arbitre et activité neurologique
Nous avons tous une notion intuitive de ce qu'est le libre-arbitre. Sur le plan biologique, il peut être associé à la notion d'action volontaire, qui s'oppose à celle de réflexe. Alors que les réflexes empruntent des chemins neuronaux simples (comme un rapide circuit via la moelle épinière), les actions volontaires font intervenir de nombreuses aires cérébrales.
1983 : L'expérience fondatrice de Benjamin Libet*
Dans l'expérience de Libet, on vous place devant une horloge qui défile rapidement, et on vous donne un bouton sur lequel vous pouvez appuyer au moment qui vous plaira. La seule chose qu'on vous demande c'est de retenir le nombre indiqué par l'horloge au moment où vous prenez votre décision d'appuyer. Dans le même temps, des électrodes placées sur votre crâne suivent votre activité cérébrale.
Ce dispositif permet de mesurer 1) le moment où vous prenez la décision d'appuyer, 2) le moment où votre cerveau commence à s'activer, et 3) le moment où vous appuyez physiquement sur le bouton. Et la découverte spectaculaire de Libet, c'est que l'activation cérébrale précède la décision consciente, et ce de plusieurs centaines de millisecondes.
Interprétée de manière brute, l'expérience de Libet semble condamner le libre-arbitre : vous avez l'impression de décider d'appuyer à un certain moment, mais votre cerveau a déjà décidé depuis presque une demi-seconde ! Comment puis-je être libre de décider quelque chose, si au moment où j'ai conscience de choisir, mon cerveau a déjà commencé à agir ? Comme on peut s'en douter, cette expérience possède de nombreux points faibles que les spécialistes n'ont pas été longs à relever.
Il y a tout d'abord les incertitudes de mesure, puisqu'on parle ici d'un écart de seulement quelques centaines de millisecondes. Ensuite le fait que l'estimation du moment de décision par le sujet lui-même n'est certainement pas très fiable : elle est subjective et l'horloge peut constituer une source de distraction et donc d'erreur. Enfin, le signal électrique relevé dans le cerveau pourrait être simplement un signal "préparatoire", qui indique que le cerveau s'active mais qui ne détermine pas spécifiquement la décision que l'on va prendre.
Bref, il y a plein de critiques à faire à l'expérience de Libet, et qui permettent de se rassurer quant à l'existence de notre libre-arbitre. Tout va bien donc, jusqu'à une nouvelle expérience réalisée en 2008, et qui s'affranchit de la plupart de ces critiques.
Dans cette nouvelle expérience, plusieurs choses diffèrent par rapport au protocole de Benjamin Libet. Tout d'abord, le sujet dispose de 2 boutons, un dans sa main gauche et un dans sa main droite. Il peut appuyer quand il le souhaite, soit à gauche soit à droite. Ensuite, le cerveau du sujet est suivi cette fois dans une IRM, ce qui permet d'observer simultanément l'activité de tout un ensemble d'aires cérébrales.
Et le moins que l'on puisse dire, c'est que les résultats de cette expérience sont perturbants. D'une part, l'IRM révèle qu'une activité cérébrale préparatoire existe 7 à 10 secondes AVANT que le sujet ne prenne sa décision d'appuyer. Encore plus troublant, cette activité cérébrale permet dans une bonne mesure de prédire de quel côté le sujet va appuyer.
Oui oui, vous avez bien lu, plusieurs secondes avant que vous soyiez conscient de choisir, votre cerveau a déjà décidé entre droite et gauche, et l'IRM peut révéler le côté qui sera choisi !
Pour modérer un peu ce résultat apparemment catastrophique pour notre libre-arbitre, il faut noter que la prédiction faite par l'IRM est loin d'être infaillible, puisqu'elle fonctionne au mieux dans 60% des cas, ce qui est significativement mieux que le hasard, mais reste tout de même limité.
Quelle conclusion raisonnable tirer de ces expériences ?
Il faut savoir qu'il n'existe chez les scientifiques et les philosophes aucun consensus quant à l'interprétation de ces expériences. Pour certains comme Patrick Haggard, le libre-arbitre n'existe tout simplement pas, il affirme "We feel that we choose, but we don't". Pour d'autres, au contraire, ces expériences n'ont aucune valeur, "Circulez ya rien à voir !".
Une position intermédiaire raisonnable c'est d'admettre que ces expériences montrent au moins que nos intentions ne sont pas systématiquement à l'origine de nos actions. Les processus inconscients jouent peut être un plus grand rôle que nous ne pouvions le penser, et la conscience d'une décision est un phénomène qui se construit au cours du processus de décision, pas à son origine.
Comme cette conclusion prudente semble quand même en mettre un coup à notre vieille notion de libre-arbitre, une manière de se rassurer c'est de considérer que notre cerveau prépare nos décisions assez en avance par rapport à notre conscience, mais qu'il nous laisse jusqu'au dernier moment un droit de veto. Il semblerait qu'une des fonctions de cette aire appelée SMA soit justement de pouvoir inhiber certaines actions décidées et préparées en amont. Donc jusqu'au dernier moment, on aurait le choix de ne pas faire. C'est ce que les anglo-saxons appellent le "free won't", par analogie au libre-arbitre appelé "free will".
Pour d'autres philosophes comme Dan Dennett, ces expériences sont correctes, mais elles ne sont pas incompatibles avec le libre-arbitre. Ces philosophes adhèrent à une position appelée compatibilisme, selon laquelle la réalité est totalement déterministe mais le libre-arbitre existe quand même. J'avoue que je ne comprends pas ce que ça signifie, et que pour moi ça ressemble beaucoup à une posture de façade "pour sauver les meubles". Ce qu'on peut comprendre car si le libre-arbitre était vraiment réfuté, les conséquences pour la société pourraient être terribles.
Les implications morales de l'absence de libre-arbitre
Imaginons que l'on montre scientifiquement que le libre-arbitre n'existe pas, alors on est mal car toutes nos lois et notre droit reposent sur la notion de responsabilité individuelle : nous sommes responsables de nos actes car nous sommes libres de les accomplir ou pas.
D'ailleurs en droit, pour être puni d'un crime, il faut qu'il y ait à la fois l'intention et l'action. La pensée n'est pas un crime, donc si vous avez juste l'intention de commettre un forfait, on ne peut pas vous condamner pour ça (encore que ce ne soit pas totalement vrai, notamment dans le cas de la préparation d'actes terroristes). Réciproquement, si quelqu'un commet un crime mais est jugé irresponsable, il ne sera pas condamné. Donc si le libre-arbitre n'existe pas, nous sommes tous irresponsables de nos actes et toutes nos structures juridiques s'effondrent !
Ceci a amené Dan Dennett à mettre en garde les scientifiques à ne pas trop faire d'annonces intempestives au sujet de leurs expériences sur le libre-arbitre !...
Pour aller plus loin...
Il faut ajouter un commentaire sur ce résultat de 60% de prédiction du côté gauche/droit quand on fait l'IRM. Cela peu paraître peu, bien peu. Mais songez que l'IRM est loin d'être en général un prédicteur parfait de nos actes. Ce qu'ont notamment montré les auteurs, c'est que même en utilisant l'information disponible dans le cortex moteur après la prise de décision et pendant le mouvement, on n'arrivait à correctement prédire le côté que dans 75% des cas. Alors qu'en théorie on devrait être capable de le faire à 100%. Cela montre que l'IRM est une information peut être trop agrégée pour permettre une prédiction très fiable.
Ainsi une récente étude montre qu'en faisant un suivi individuel de neurones avec des électrodes implantées dans le cerveau (plutôt qu'une IRM), on peut prédire le résultat avec une acuité de 80%, et ce 700 millisecondes avant la décision consciente. Tout ça pour dire que rien ne nous met à l'abri de futures expériences avec de meilleurs systèmes de mesure et de prédiction, qui pourraient deviner nos décisions 5 secondes en avance avec 90% de fiabilité.
Pour finir sur un peu de philo, ces expériences semblent au moins réfuter le modèle dualiste du corps et de l'esprit. Dans ce modèle popularisé par Descartes, l'esprit existe indépendamment du corps, et est capable de le contrôler. Si cette vision était correcte, alors le sentiment d'avoir l'intention d'agir (qui viendrait de l'esprit) devrait précéder les manifestations cérébrales et musculaires (du corps). Il paraît que les philosophes dualistes, ça n'existe plus, mais malgré tout la vision dualiste reste probablement la plus reflétée dans le langage commun, quand on dit "JE décide" (esprit), mais "le cerveau s'active" et "le muscle bouge" (corps).

Auteur: Internet

Info: sciencetonnante.wordpress.com,*voir aussi les expériences de Walter Grey

[ sciences ]

 

Commentaires: 0

spiritualité

La question qui s'impose est la suivante : sur quels arguments les promoteurs de cette technique [la méditation de la pleine conscience] se basent-ils pour établir un lien de filiation entre Vipassana – la Vision Pénétrante – et la Pleine Conscience ? Dans le Septième Pas de l'Octuple Sentier, l'Attention Juste (discipline de Dhyâna), et en particulier dans la contemplation du corps, des sentiments, de l'esprit et des phénomènes, il est régulièrement mentionné que le pratiquant doit être attentif, avec une conscience claire. Il développe, par cette pratique, certains "pouvoirs psychiques" : ouïe céleste, vision du cœur des autres êtres, mémoire des naissances précédentes, vision céleste supra-humaine et enfin, avec la cessation des passions, la délivrance de l'esprit par la sagesse. Ces indications comportementales relatives à la contemplation, en particulier pour ce qui concerne l'attention et la conscience claire, pourraient – exception faite des "pouvoirs psychiques" – sembler en adéquation avec la pratique de la Pleine Conscience, telle que définie par ses promoteurs. Cependant, ces derniers omettent un détail essentiel de la pratique de l'Attention juste : "Cette claire connaissance (de la nature des éléments contemplés) est présente en lui (le pratiquant) parce qu'il possède la compréhension et la vision profonde intérieure."

Que signifie "posséder la compréhension et la vision profonde intérieure" ? Ça signifie que la pratique de la contemplation dans l'Attention juste s'appuie sur la Prajna et non sur une intention qui, privée de la Compréhension juste (Premier Pas de l'Octuple Sentier) et de la vision profonde intérieure (Vision Pénétrante) préalables, est une activité du mental sous l'emprise de l'Ignorance, qui est le premier des douze liens interdépendants (qui génèrent le Samsara). Autrement dit, la méditation de la Pleine Conscience fonctionne en quelque sorte à l'envers, par rapport à l'Attention juste. En effet, pour la mindfulness, c'est l'attention intentionnelle qui est le préalable ou la cause ou encore le moteur, alors que pour le Bouddhisme, c'est exactement l'inverse : ce sont la compréhension et la vision profonde intérieure qui sont moteur de l'Attention juste. Et de fait, la pratique de l'attention intentionnelle – même "non jugeante" – ne peut en aucun cas aboutir à la compassion et à la sagesse telles qu'elles sont définies dans le Bouddhisme. En d'autres termes, il n'y a aucun lien de filiation justifié entre Vipassana et la méditation de la Pleine Conscience.

Par ailleurs, la notion de "présence" est étrangère au Bouddhisme. On retrouve ce concept dans les religions éternalistes, sans doute en lien avec les états de samadhi qui provoquent le sentiment d'une union avec le divin, lequel est non soumis au temps et donc éternellement présent. Si l'on devait préciser les choses, dans le Bouddhisme, on réalise plutôt – par l'éclairage de la Prajna – une Absence qu'une Présence, non pas dans le sens d'un néant, d'un "rien", mais dans le sens de l'Anatman – le Non soi – ou encore de la Vacuité non phénoménale (et donc ne résultant pas de l'interdépendance des phénomènes).

La méditation de la Pleine Conscience, privée de Prajna, est – du point de vue bouddhique – une pratique "aveugle", sans discernement. Le pratiquant n'observe pas le corps, les sentiments, l'esprit et les phénomènes avec l'œil de la Prajna – qui est l'œil du Bouddha qui possède la Vue juste, ou la Vision Pénétrante –, c'est-à-dire selon le mode de Prajna, mais avec les représentations mentales "souillées" (ou disons "orientées") par des apprentissages qui consistent à mettre spontanément des mots sur les choses, comme si celles-ci étaient enfermées dans des cases linguistiques ou sémantiques qui se substituent au réel et donc au "moment présent". Quand le pratiquant entend une cloche, il reconnaît la cloche ; il n'entend pas la cloche (comment sait-il qu'il s'agit d'une cloche ?). Et bien qu'il vide – ou plutôt tente de vider – la cloche de tout jugement, de toute émotion perturbatrice, de toute représentation... il n'en demeure pas moins vrai qu'il contemple un objet surnuméraire, sans pour autant reconnaître spontanément la véritable nature de cet objet, c'est-à-dire sa vacuité intrinsèque. Il peut bien sûr analyser secondairement cet objet comme étant constitué d'interdépendance d'autres objets ou phénomènes, il n'en demeure pas moins vrai que cette analyse n'est pas le fait de la Prajna mais de la pensée discursive, dualiste. Au sens strict, ce n'est pas une Vue (Vision Pénétrante).

Cette "présence attentive", cette "Pleine Conscience" n'est pas une qualité bouddhique. C'est vraisemblablement une forme de samadhi, qui se développe aussi bien dans les disciplines éternalistes (yoga) que dans les états hypnotiques de modification de conscience induits par la prière ou la récitation d'un mantra. Sans doute peut-on en tirer quelques bénéfices au plan de la santé physique ou mentale, mais ce n'est certainement pas l'expression de la Compassion bouddhique ou d'une Sagesse (la Compassion est une Sagesse, dans le Bouddhisme, et non un "état d'esprit"), telle qu'elle résulte de l'expérience de la Vacuité et de la Sapience (clarté/illumination). Il n'y a donc aucun argument sérieux qui puisse affirmer qu'il existe un lien de filiation entre la Vision Pénétrante, qui est l'activité de Prajna, et la "Pleine Conscience" qui n'a aucun équivalent dans le Bouddhisme.

Cependant, on ne peut blâmer les promoteurs de la Pleine Conscience d'être à l'origine de cet amalgame fâcheux, quand on constate que certains enseignants de tradition bouddhiste, généralement rattachés au Théravada mais aussi au Zen ou au Bouddhisme tibétain, en font également la promotion. Ces "maîtres" ont pour la plupart pignon sur rue, et, si l'on y regarde d'assez près, ce sont plutôt des laïcs, non spécifiquement rattachés au Bouddhisme (ils n'ont pas pris refuge), qui les apprécient. Ces enseignants n'hésitent pas à s'associer aux concepts new age. Et pour cause, ils n'ont en réalité aucune Vue ou Compréhension juste de ce qu'est la nature de l'esprit, du corps, des sensations et des phénomènes. Tout ce qu'ils savent, parce qu'ils ont bien appris la leçon, c'est que les phénomènes sont vides de nature propre parce qu'ils sont en interdépendance. Et quand un maître zen, dans l'émission "Sagesse Bouddhiste", affirme : "en zazen, nous réalisons que rien n'existe par soi-même, que tout est interdépendant", en présence de Christophe André, le psychiatre promoteur de la Pleine Conscience en France, également invité à l'émission sus-nommée, on atteint véritablement le pompon.

Dans un échange sur les réseaux sociaux, une personne me demande : "pourquoi faire zazen quand on a eu kenshô ?" La question est légitime, car dans l'esprit de cette personne, on pratique zazen pour obtenir kenshô comme on pratique l'attention intentionnelle pour obtenir la Pleine Conscience. Et à la façon dont l'exprime le maître zen à l'émission Sagesse Bouddhiste, il y a lieu de penser en effet qu'on pratique zazen pour réaliser la vacuité phénoménale (l'interdépendance phénoménale). Et dans l'esprit de cette personne sur les réseaux sociaux, quand on a réalisé ce qu'il y a à réaliser, le but est atteint et n'a donc plus à être recherché (il faut se souvenir que l'intention suppose le but, par définition). Mais, ainsi que je l'exprime plus haut à propos de Vipassana, c'est comprendre zazen à l'envers, si j'ose dire. Il n'y a pas d'attention intentionnelle. Il y a juste activité de la Prajna.

Un bon enseignant du Zen devrait commencer par dire à son élève qu'il n'y a pas dans le Zen (ou dans le Bouddhisme en général) de but à atteindre qui ne soit déjà atteint. Zazen ne consistera donc pas à pratiquer pour devenir un bouddha ou pour atteindre des états de conscience spécifiques, qu'ils soient transcendants ou qu'ils reflètent l'ennui, l'errance, ou encore des sensations de bien être ou – plus rarement – orgasmiques. Zazen ne consiste pas à être autre chose que soi-même, non pas selon le mode de la pensée dualiste, c'est-à-dire selon le mode des représentations psychologiques, culturelles ou sociétales, mais selon le mode de Prajna. 

Pour conclure, je dirai que dans la méditation de la Pleine Conscience, c'est l'activité du mental qui prévaut et Prajna est passive, alors que dans la pratique de zazen, c'est l'activité de Prajna qui est active, quels que soient par ailleurs les états de conscience, car ceux-ci ne reflètent jamais que des phénomènes transitoires, vide de nature propre et, ultimement (si l'on s'y attache), facteur de souffrance. Dans le Zen, on appelle "makyo" ces états de conscience, et n'ont strictement rien à voir avec kenshô. 

Cela étant, qu'on ne s'y méprenne pas : l'activité de Prajna n'est pas spontanée dans la conscience. Elle s'éveille à condition d'atteindre la coïncidence de l'esprit observé (objet) et l'esprit observant (sujet). Dans cette coïncidence, la dualité sujet/objet disparaît. C'est l'Absence (et non la Présence). C'est l'Anatman – le Non-soi – et non le Soi. Ne vous y trompez pas.

Auteur: Dumè Antoni

Info: https://voirsavraienature.blogspot.com/2020/05/activite-du-mental-et-activite-de-la.html?

[ adaptation moderne ] [ confusions ] [ différences ] [ enseignements traditionnels ] [ grand véhicule ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

transposition linguistique

La théorie de la traduction est très rarement - comment dire ? - comique. Son mode de fonctionnement est celui de l'élégie et de l'admonestation sévère. Au XXe siècle, ses grandes figures étaient Vladimir Nabokov, en exil de la Russie soviétique, attaquant des libertins comme Robert Lowell pour leurs infidélités au sens littéral ; ou Walter Benjamin, juif dans un Berlin proto-nazi, décrivant la tâche du traducteur comme un idéal impossible d'exégèse. On ne peut jamais, selon l'argument élégiaque, reproduire précisément un vers de poésie dans une autre langue. Poésie ! Tu ne peux même pas traduire "maman"... Et cet argument élégiaque a son mythe élégiaque : la Tour de Babel, où la multiplicité des langues du monde est considérée comme la punition de l'humanité - condamnée aux hurleurs, aux faux amis, aux applications de menu étrangères. Alors que l'état linguistique idéal serait la langue universelle perdue de l'Eden.

La théorie de la traduction est rarement désinvolte ou joyeuse.

Le nouveau livre de David Bellos sur la traduction contourne d'abord cette philosophie. Il décrit les dragons de la Turquie ottomane, l'invention de la traduction simultanée lors du procès de Nuremberg, les dépêches de presse, les bulles d'Astérix, les sous-titres de Bergman, etc.... Il propose une anthropologie des actes de traduction. Mais à travers cette anthropologie, c'est un projet beaucoup plus grand qui émerge. Les anciennes théories étaient élégiaques, majestueuses ; elles étaient très sévères. Bellos est pratique et vif. Il n'est pas éduqué par l'élégie. Et c'est parce qu'il est sur quelque chose de nouveau.

Bellos est professeur de français et de littérature comparée à l'université de Princeton, et également directeur du programme de traduction et de communication interculturelle de cette université (où, je dois le préciser, j'ai déjà pris la parole). Mais pour moi, il est plus intéressant en tant que traducteur de deux romanciers particulièrement grands et problématiques : le Français Georges Perec, dont l'œuvre se caractérise par un souci maniaque de la forme, et l'Albanais Ismail Kadare, dont Bellos traduit l'œuvre non pas à partir de l'original albanais, mais à partir de traductions françaises supervisées par Kadare. La double expérience de Bellos avec ces romanciers est, je pense, à l'origine de son nouveau livre, car ces expériences de traduction prouvent deux choses : Il est toujours possible de trouver des équivalents adéquats, même pour une prose maniaquement formelle, et il est également possible de trouver de tels équivalents dans une langue qui n'est pas l'original de l'œuvre. Alors que selon les tristes théories orthodoxes de la traduction, aucune de ces vérités ne devrait être vraie.

À un moment donné, Bellos cite avec une fierté légitime un petit exemple de sa propre inventivité. Dans le roman de Perec "La vie : Mode d'emploi" de Perec, un personnage se promène dans une arcade parisienne et s'arrête pour regarder les "cartes de visite humoristiques dans la vitrine d'un magasin de farces et attrapes". Dans l'original français de Perec, l'une de ces cartes est : "Adolf Hitler/Fourreur". Un fourreur est un fourreur, mais la blague de Perec est que cela ressemble aussi à la prononciation française de Führer. Donc Bellos, dans sa version anglaise, traduit à juste titre "fourreur" non pas par "furrier", mais comme ceci : "Adolf Hitler/Lieder allemand". Le nouveau jeu de mots multiphonique de Bellos est une parodie, sans aucun doute - et c'est aussi la traduction la plus précise possible.

Les conclusions que ce paradoxe exige sont, disons, déconcertantes pour le lecteur vieux jeu. Nous sommes habitués à penser que chaque personne parle une langue individuelle - sa langue maternelle - et que cette langue maternelle est une entité discrète, avec un vocabulaire manipulé par une grammaire fixe. Mais cette image, selon Bellos, ne correspond pas aux changements quotidiens de nos multiples langues, ni au désordre de notre utilisation des langues. L'ennemi philosophique profond de Bellos est ce qu'il appelle le "nomenclaturisme", "la notion que les mots sont essentiellement des noms" - une notion qui a été amplifiée dans notre ère moderne d'écriture : une conspiration de lexicographes. Cette idée fausse l'agace parce qu'elle est souvent utilisée pour soutenir l'idée que la traduction est impossible, puisque toutes les langues se composent en grande partie de mots qui n'ont pas d'équivalent unique et complet dans d'autres langues. Mais, écrit Bellos, "un terme simple comme 'tête', par exemple, ne peut être considéré comme le 'nom' d'une chose particulière. Il apparaît dans toutes sortes d'expressions". Et si aucun mot en français, par exemple, ne couvre toutes les connotations du mot "tête", sa signification "dans un usage particulier peut facilement être représentée dans une autre langue".

Cette idée fausse a toutefois une très longue histoire. Depuis que saint Jérôme a traduit la Bible en latin, le débat sur la traduction s'est dissous dans l'ineffable - la fameuse idée que chaque langue crée un monde mental essentiellement différent et que, par conséquent, toutes les traductions sont vouées à l'insuffisance philosophique. Dans la nouvelle proposition de Bellos, la traduction "présuppose au contraire... la non-pertinence de l'ineffable dans les actes de communication". En zigzaguant à travers des études de cas de bibles missionnaires ou de machines linguistiques de la guerre froide, Bellos élimine calmement cette vieille idée de l'ineffable, et ses effets malheureux.

On dit souvent, par exemple, qu'une traduction ne peut jamais être un substitut adéquat de l'original. Mais une traduction, écrit Bellos, n'essaie pas d'être identique à l'original, mais d'être comme lui. C'est pourquoi le duo conceptuel habituel de la traduction - la fidélité et le littéral - est trop maladroit. Ces idées dérivent simplement de l'anxiété déplacée qu'une traduction essaie d'être un substitut. Adolf Hitler/Fourreur ! Une traduction en anglais par "furrier" serait littéralement exacte ; ce serait cependant une ressemblance inadéquate.

En littérature, il existe un sous-ensemble connexe de cette anxiété : l'idée que le style - puisqu'il établit une relation si complexe entre la forme et le contenu - rend une œuvre d'art intraduisible. Mais là encore, cette mélancolie est mélodramatique. Il sera toujours possible, dans une traduction, de trouver de nouvelles relations entre le son et le sens qui soient d'un intérêt équivalent, voire phonétiquement identiques. Le style, comme une blague, a juste besoin de la découverte talentueuse d'équivalents. "Trouver une correspondance pour une blague et une correspondance pour un style", écrit Bellos, "sont deux exemples d'une aptitude plus générale que l'on pourrait appeler une aptitude à la correspondance de modèles".

La traduction, propose Bellos dans une déclaration sèchement explosive, plutôt que de fournir un substitut, "fournit pour une certaine communauté une correspondance acceptable pour une énonciation faite dans une langue étrangère." Ce qui rend cette correspondance acceptable variera en fonction de l'idée que se fait cette communauté des aspects d'un énoncé qui doivent être assortis de sa traduction. Après tout, "on ne peut pas s'attendre à ce qu'une traduction ressemble à sa source sur plus de quelques points précis". Une traduction ne peut donc pas être bonne ou mauvaise "à la manière d'une interrogation scolaire ou d'un relevé bancaire". Une traduction s'apparente davantage à un portrait à l'huile". Dans une traduction, comme dans toute forme d'art, la recherche est celle d'un signe équivalent.

Et pour les habitants de Londres ou de Los Angeles, ce démantèlement des mythes autour de la traduction a des implications particulières. Comme le souligne Bellos, ceux qui sont nés anglophones sont aujourd'hui une minorité de locuteurs de l'anglais : la plupart le parlent comme une deuxième langue. L'anglais est la plus grande interlangue du monde.

Je pense donc que deux perspectives peuvent être tirées de ce livre d'une inventivité éblouissante, et elles sont d'une ampleur réjouissante. Le premier concerne tous les anglophones. Google Translate, sans aucun doute, est un appareil à l'avenir prometteur. Il connaît déjà un tel succès parce que, contrairement aux traducteurs automatiques précédents, mais comme d'autres inventions de Google, il s'agit d'une machine à reconnaissance de formes. Il analyse le corpus des traductions existantes et trouve des correspondances statistiques. Je pense que les implications de ce phénomène n'ont pas encore été suffisamment explorées : des journaux mondiaux aux romans mondiaux... . . . Et cela m'a fait imaginer une deuxième perspective - limitée à un plus petit, hyper-sous-ensemble d'anglophones, les romanciers. Je suis un romancier anglophone, après tout. Je me suis dit qu'il n'y avait aucune raison pour que les traductions d'œuvres de fiction ne puissent pas être faites de manière beaucoup plus extensive dans et à partir de langues qui ne sont pas les langues d'origine de l'œuvre. Oui, j'ai commencé à caresser l'idée d'une future histoire du roman qui serait imprudemment internationale. En d'autres termes : il n'y aurait rien de mal, pensais-je, à rendre la traduction plus joyeuse. 


Auteur: Thirlwell Adam

Info: https://www.nytimes.com/2011/10/30. A propos du livre : Le côté joyeux de la traduction, Faber & Faber Ed. Texte traduit à 90% par deepl.com/translator

 

Commentaires: 0

Ajouté à la BD par miguel

bornages notionnels

Q) - Peux-tu expliquer autrement cette phrase "le vivant est considéré comme non ergodique par qu'il n'explore qu'une toute petite partie de son espace de phase."

R) - L'idée de base de cette phrase est que la vie est un système complexe, avec de nombreuses possibilités. Cependant, la vie n'explore qu'une petite partie de ces possibilités. Il existe un nombre infini de combinaisons possibles de gènes, de protéines, de cellules, d'organismes et d'écosystèmes. Cependant, la vie n'a exploré qu'une petite partie de ces possibilités.

Il y a plusieurs raisons à cela. Tout d'abord, la vie est limitée par les lois physiques. Les lois physiques déterminent quelles combinaisons de gènes et de protéines sont possibles. 

Deuxièmement, la vie est limitée par les ressources disponibles. Les ressources disponibles limitent le nombre d'organismes qui peuvent vivre dans un environnement donné. 

Troisièmement, la vie est limitée par le hasard. Le hasard joue un rôle important dans l'évolution, car il peut conduire à des mutations génétiques qui peuvent donner naissance à de nouvelles formes de vie. 

En raison de ces limitations, la vie n'explore qu'une petite partie de son espace de phase. Cela signifie que les résultats de l'évolution sont imprévisibles.

Q) - Merci. Peux-tu expliciter "espace de phase" en terme électrique

R) - En termes électriques, l'espace de phase est l'ensemble des états possibles d'un système électrique. Il est décrit par un ensemble de variables, telles que la tension, le courant, l'inductance, la capacité et la résistance.

Q) - Dans mon esprit "espace de phase" correspond aussi à "bande passante"

R) Oui, il y a une certaine similitude entre l'espace de phase et la bande passante.

En termes électriques, la bande passante est la plage de fréquences qu'un système électrique peut transmettre sans distorsion.

L'espace de phase, quant à lui, est l'ensemble des états possibles d'un système électrique.

La bande passante peut être considérée comme une restriction de l'espace de phase. En effet, un système électrique ne peut pas transmettre des fréquences qui dépassent sa bande passante.

Par exemple, un filtre coupe-bas ne peut transmettre que des fréquences inférieures à sa fréquence de coupure.

Dans ce cas, la bande passante du filtre est une restriction de l'espace de phase du signal qui est transmis par le filtre.

Cependant, il existe également des différences entre l'espace de phase et la bande passante.

L'espace de phase est un concept plus général que la bande passante. Il peut être utilisé pour décrire le comportement de tout système, pas seulement des systèmes électriques.

La bande passante, quant à elle, est un concept plus spécifique. Il est utilisé pour décrire le comportement des systèmes électriques qui transmettent des signaux.

En conclusion, l'espace de phase et la bande passante sont deux concepts liés, mais qui ne sont pas identiques. L'espace de phase est un concept plus général, tandis que la bande passante est un concept plus spécifique.

Q) - Merci. Ce sont deux termes qui parlent des limites de concepts issus du réel : quel pourrait être un un concept encore plus général dans cet ordre d'idées

R) - Un concept encore plus général dans cet ordre d'idées pourrait être celui de limite de l'appréhension.

Ce concept désigne l'idée que notre capacité à comprendre le monde est limitée par notre propre nature. Nous sommes des êtres finis, avec des sens limités, et notre compréhension du monde est nécessairement biaisée par nos propres expériences et nos propres perspectives.

Par exemple, notre compréhension de la physique est limitée par nos propres instruments de mesure. Nous ne pouvons pas observer des particules subatomiques directement, et notre compréhension de la matière est donc nécessairement basée sur des modèles mathématiques. 

De même, notre compréhension de la vie est limitée par nos propres sens. Nous ne pouvons pas voir les bactéries ou les virus, et notre compréhension de la biologie est donc nécessairement basée sur des extrapolations à partir des organismes que nous pouvons observer.

Enfin, notre compréhension de la société est limitée par nos propres expériences. Nous ne pouvons pas comprendre les cultures qui sont très différentes de la nôtre, et notre compréhension du monde social est donc nécessairement biaisée par nos propres valeurs et nos propres normes. 

Le concept de limite de l'appréhension est important car il nous rappelle que notre compréhension du monde est toujours imparfaite. Nous devons être conscients de cette limite pour éviter de tomber dans le piège de l'absolutisme ou de l'essentialisme.

Voici quelques autres concepts qui pourraient être considérés comme encore plus généraux que les deux que vous avez mentionnés :

L'incomplétude : L'idée que nous ne pouvons jamais connaître toute la vérité sur le monde.

L'incertitude : L'idée que nous ne pouvons jamais être sûrs de nos connaissances.

La relativité : L'idée que la vérité est relative à notre point de vue.

Notre compréhension du monde est toujours imparfaite et est toujours sujette à évolution.

Q) - Il y a aussi les limitations apportées pas nos propres systèmes de codages : langages, écritures, musique, mathématiques.... Qui paraissent bien faibles par comparaison avec les possibilités de développement que montrent les mémoires génétiques sur base 4.

R) - 
Oui, c'est vrai. Nos systèmes de codage sont limités par notre propre nature. Nous sommes des êtres humains, avec un cerveau qui a évolué pour nous permettre de survivre et de nous reproduire dans notre environnement. Nos systèmes de codage sont donc adaptés à cette tâche, mais ils ne sont pas adaptés à la compréhension du monde dans toute sa complexité.

Les mémoires génétiques, quant à elles, sont codées sur une base 4. Cela signifie qu'elles peuvent coder un nombre beaucoup plus grand de combinaisons que les langages, les écritures, la musique ou les mathématiques, qui sont tous codés sur une base 2.

Cette différence de base permet aux mémoires génétiques de coder des informations beaucoup plus complexes. Par exemple, elles peuvent coder des informations sur la structure et la fonction des organismes, sur les interactions entre les organismes et sur l'environnement. 

Ces informations sont essentielles à la vie. Elles permettent aux organismes de se développer, de s'adapter et de survivre. 

Par conséquent, il est probable que les mémoires génétiques soient plus puissantes que nos propres systèmes de codage. Elles nous permettent de comprendre le monde dans une mesure qui nous est inaccessible. 

Cependant, il est important de noter que les mémoires génétiques ne sont pas parfaites. Elles sont également limitées par les lois de la physique et par les contraintes de l'évolution. 

Par exemple, les mémoires génétiques sont limitées par la taille de l'ADN. L'ADN est une molécule très longue, mais elle a une taille finie. Cela signifie que les mémoires génétiques ne peuvent pas coder une quantité infinie d'informations. 

De même, les mémoires génétiques sont limitées par les contraintes de l'évolution. L'évolution est un processus lent et progressif. Il est donc difficile pour les mémoires génétiques de coder des informations qui sont très différentes de celles qui ont été transmises par les générations précédentes. 

Malgré ces limitations, les mémoires génétiques sont un outil puissant qui nous permet de comprendre le monde. Elles nous permettent de comprendre la vie dans toute sa complexité et sa beauté.

Q) - D'autant qu'une bonne partie des fonctions de ces mémoires - le junk adn par exemples - nous échappent.

R) - Oui, c'est vrai. Une bonne partie des fonctions des mémoires génétiques nous échappent, notamment l'ADN non codant, également appelé ADN poubelle.

L'ADN non codant représente environ 98 % du génome humain. Il s'agit de séquences d'ADN qui ne codent pas pour des protéines.

Pendant longtemps, l'ADN non codant a été considéré comme inutile. Cependant, des recherches récentes ont montré que l'ADN non codant joue un rôle important dans la régulation de l'expression des gènes.

L'ADN non codant peut jouer un rôle dans la régulation de l'expression des gènes de plusieurs façons. Il peut servir de sites d'attachement pour les protéines qui régulent l'expression des gènes. Il peut également servir de matrice pour la transcription des ARN non codants, qui jouent également un rôle dans la régulation de l'expression des gènes.

L'ADN non codant peut également jouer un rôle dans d'autres processus biologiques, tels que la réparation de l'ADN, la réplication de l'ADN et l'intégration de l'ADN viral.

Cependant, nous ne comprenons pas encore entièrement les fonctions de l'ADN non codant. Il reste encore beaucoup de recherches à faire pour comprendre ce rôle important. Elle pourront nous aider à mieux comprendre le fonctionnement des cellules et des organismes. Elles pourraient également nous aider à développer de nouvelles thérapies pour les maladies génétiques.

Auteur: Google Bard chatbot

Info: 19 janv 2024

[ délimitations conceptuelles ]

 

Commentaires: 0

Ajouté à la BD par miguel

passéistes

Alors que la revue Philitt publie un recueil de ses meilleures contributions, son directeur explique la démarche de l’antimoderne, et en quoi elle se distingue de celle du conservateur ou du réactionnaire .

FIGAROVOX : - Dans l’introduction de votre recueil "Résister à la modernité", vous reprenez l’apostrophe de Rimbaud "être absolument moderne" pour l’inverser "être absolument antimoderne". Qu’entendez-vous par antimoderne? Est-il possible de rejeter la modernité en bloc?

M. GIROUX :  - Les antimodernes renvoient à une tradition précise très bien thématisée par Antoine Compagnon dans un livre paru en 2005 Les antimodernes: De Joseph de Maistre à Roland Barthes. Il est essentiel de comprendre que les antimodernes sont des modernes. Ce sont, comme dit Compagnon, des modernes "déniaisés du moderne", des modernes "contrariés".

Car, en réalité, il n’y a d’anti-modernes que dans le monde moderne, époque dont la datation précise varie selon les écrivains. Certains disent que le monde moderne commence avec la révolution scientifique de Galilée (Michel Henry), d’autres avec la Réforme protestante (Joseph de Maistre), d’autres encore avec la Révolution industrielle (Günther Anders).

Charles Péguy, lui, fait commencer le "monde moderne" en 1881. Les antimodernes sont ceux qui identifient dans leur époque une forme de déclin spirituel et de diminution de l’homme. Les antimodernes sont paradoxaux car ils allient souvent une critique de l’idéologie du progrès avec une grande modernité esthétique. Baudelaire, Péguy, Bernanos détestent leur époque mais l’expriment à travers des formes littéraires renouvelées.

D’un point de vue politique, les anti-modernes sont encore ambivalents car ils sont souvent engagés dans les aventures politiques de leur temps. On peut aussi ajouter qu’ils sont très individualistes alors qu’il y a chez eux une critique permanente de l’individualisme. En résumé, les antimodernes sont, malgré eux, partie prenante de la modernité.

FIGAROVOX : - En quoi l’antimoderne se distingue-t-il du réactionnaire ou du traditionaliste?

M. GIROUX : - Joseph de Maistre, qui est le père de la réaction, est souvent considéré comme un antimoderne pour des raisons à la fois esthétiques et philosophiques. Sa langue est brillante et moderne, tant et si bien que Robert Triomphe disait de lui qu’il était un "Voltaire retourné". De même, Maistre, bien que contre-révolutionnaire estime que la "contre-révolution ne sera pas une révolution contraire mais le contraire de la révolution".

La Révolution est pour lui un châtiment qui doit purifier le peuple français par le sang. Il entérine la marche de l’histoire et un retour à l’ordre ancien n’a pas de sens à ses yeux. Selon moi, il y a presque un malentendu sur la notion de réactionnaire si l’on considère que Maistre l’initie. Aujourd’hui, le mot "réactionnaire" est dévoyé et ne renvoie à aucune réalité. On accuse confusément des personnalités d’être "réactionnaires" alors que ce sont, en gros, des libéraux conservateurs nostalgiques d’un passé récent, souvent celui de la France sous le Général de Gaulle.

Les traditionalistes à la Louis de Bonald ou les tenants de la Tradition à la René Guénon renvoient à des modes de pensée différents. Bonald est un doctrinal, précurseur de la sociologie française, qui n’a pas le charme esthétique d’un Maistre. De ce point de vue, c’est précisément parce qu’il n’est pas moderne qu’il n’est pas antimoderne.

Guénon, quant à lui, estime que l’histoire de l’humanité est une longue dégradation depuis un Âge d’or immémorial. Son logiciel mental est indépendant des catégories modernes. Il cherche moins à formuler une critique antimoderne qu’à asséner que la modernité est une anti-Tradition.

FIGAROVOX : - Vous critiquez l’homo reactus, c’est-à-dire le réactionnaire qui fait de l’anti-politiquement correct un réflexe. Pourquoi? N’est-il pas un peu snob que de vouloir trier entre les bons et les mauvais antimodernes? L’union contre le progressisme n’exige-t-elle pas de faire front?

M. GIROUX : - Homo reactus, néologisme inventé en référence à l’Homo festivus de Philippe Muray, n’est pas un réactionnaire au sens stricte. Si l’on considère que Joseph de Maistre est un réactionnaire - et nous avons vu que c’était déjà problématique - alors Homo reactus n’est pas un réactionnaire.

Homo reactus désigne plutôt une certaine frange des journalistes et des intellectuels qui ont fait du politiquement incorrect un argument commercial et une fin en soi. Homo reactus est politiquement incorrect, non parce qu’il défend une vision du monde profonde, mais par principe, pour montrer que, surtout, il n’est "pas-de-gauche".

Homo reactus, contrairement aux antimodernes, n’est pas du tout scandalisé par le monde tel qu’il est, il s’en accommode parfaitement et ne cherche pas à renverser la table. Comme son nom l’indique, Homo reactus réagit, mais il ne porte pas de discours positif. C’est un homme du ressentiment, tel qu’il a été thématisé par Nietzsche. Rien à voir donc avec les antimodernes dont la radicalité philosophique et esthétique bouleversent le sens commun.

FIGAROVX : - Vous nous faites découvrir énormément d’auteurs… Charles Péguy, Dostoïevski, Georges Bernanos, Léon Bloy, Soljenitsyne, Baudelaire, Guénon, Chesterton: quel est le point commun de tous ces écrivains ?

M. GIROUX : - Ce qui permet de rapprocher les antimodernes, tant ils différent sur de nombreux points quand on les prend individuellement, c’est leur ethos, c’est-à-dire leur tempérament. Ils sont habités par une conviction profonde: le monde qui est le nôtre a quelque chose de scandaleux. Le monde moderne est à la fois laid, bête et inique.

Le développement de la technique défigure la surface de la terre et avilit l’homme, les modes de vie contemporains encouragent un rapport utilitariste à autrui et mettent en berne la spiritualité, l’hégémonie du capitalisme aboutit à une nouvelle forme de servitude. Cet état de fait est la raison de la colère des antimodernes. Et ils ont en commun de ne pas transiger avec le monde tel qu’il est, de ne jamais "s’habituer", pour reprendre une terminologie de Péguy.

Leur vitupération, si elle peut être le signe d’un certain pessimisme, n’est pas pour autant une invitation au désespoir. Au contraire, l’antimoderne est travaillé par l’espérance et c’est de cette inadéquation entre la réalité et leur idéal que naît leur souffrance ainsi que leur inépuisable volonté d’en découdre.

FIGAROVOX : - Votre revue laisse une grande part à la littérature. En quoi celle-ci est-elle un antidote à la modernité?

M. GIROUX : - La littérature est une manière unique, non théorique, de rendre compte de la réalité. En cela, la littérature s’oppose à la démarche des sciences sociales. Alors que ces dernières réduisent la réalité à des entités objectives, évaluées selon des méthodes quantitatives, la littérature tire sa légitimité de la subjectivité qui la produit.

Ce serait une erreur, par exemple, de réduire l’œuvre de Balzac à une entreprise réaliste, voire naturaliste, de glorifier la Comédie humaine seulement parce que, comme on l’entend souvent, elle concurrencerait l’état-civil. Il y a chez Balzac plus qu’une description réaliste de la société française du XIXe siècle: il y a aussi la magie de la peau de chagrin ou le charisme faustien d’un Vautrin. Dostoïevski, qui avait beaucoup lu Balzac, avait compris cela.

Son œuvre, si elle a une dimension sociologique, est une aussi une plongée inquiétante dans les bas-fonds de la psyché humaine, une tentative de dévoilement du mystère profond de l’existence (Dieu, l’âme, la liberté). La littérature est intrinsèquement antimoderne dans la mesure où elle cherche à préserver l’existence de la vie intérieure. D’une certaine manière, on peut dire que le naturalisme - qui voulait donner à la littérature un statut scientifique - est une entreprise non-littéraire. La réduction sociologique de la littérature entraîne sa propre destruction.

FIGAROVOX : - Vous écrivez que le moderne se caractérise par la haine du secret et prescrivez contre le culte de la transparence et de l’exhibition la noblesse de la dissimulation. Pourquoi le moderne est-il hostile au secret? En quoi celui-ci est-il précieux à la civilisation?

M. GIROUX : - Le moderne ne croit pas qu’il existe une dimension cachée de l’existence, quelque chose qui échappe à une description objective. La modernité s’est en partie construite sur la dénonciation de certaines "illusions métaphysiques". Les grands mouvements scientistes de la fin du XIXe siècle sont la caricature de cette idéologie matérialiste: la nature de l’être est matérielle et rien n’existe qui ne puisse s’expliquer par des méthodes scientifiques.

Dès lors, ce qui n’est pas démontrable rationnellement mais qui renvoie à un autre type de convictions (la croyance, la foi, l’intuition etc.) est d’emblée exclu de la réalité. Le moderne est hostile au "secret" car il ne le comprend pas et préfère s’en moquer en l’accusant de relever d’une forme de superstition.

Michel Henry, ce grand philosophe malheureusement peu connu, estimait que la tradition philosophique occidentale avait été incapable de penser l’intériorité de la vie car elle fonctionnait selon le paradigme de la représentation, du voir, de la monstration.

Or, pour Henry, l’essence de la vie consistait à ne pas se montrer, à reposer dans le secret. Cette occultation de la vie est aux yeux de Henry la forme moderne de la barbarie.

Auteur: Giroux Matthieu

Info: sur https://www.lefigaro.fr, interview d'Eugénie Bastié, Publié le 23/01/2021

[ fermeture rationaliste ] [ penseurs ] [ réalité transposée ] [ codage du réel ] [ apriorisme aveugle ] [ tour d'horizon ]

 
Commentaires: 1
Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel