Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 731
Temps de recherche: 0.0468s

annales

Les régimes institutionnels de la mémoire

On pourrait distinguer la reproduction biologique (un individu se reproduit en individus de la même espèce), l’élevage (on sélectionne par la reproduction un profil génétique donné), la domestication (les êtres humains éduquent des animaux, transmettant par le dressage pratiques et comportements) et enfin l’éducation où des individus d’une espèce enseignent à leurs progénitures leurs propres acquis. La domestication n’est pas l’éducation car ce ne sont pas les animaux qui dressent leurs petits, mais leurs maîtres.

La culture commence quand, au delà du patrimoine génétique, des contenus, pratiques et savoir faire sont transmis d’une génération à une autre. Autrement dit, quand il s’agit de passer de l’élevage à l’éducation, de la répétition des capacités propres à l’espèce à la transmission des contenus acquis.

Cela implique d’une part la prise de conscience d’un déjà-là constitué et d’autre part la mise en place d’outils et procédures pour l’entretenir et donc le transmettre. Il s’agit d’avoir des institutions du sens qui régissent, au niveau d’une société ou d’un collectif, les pratiques culturelles et les modalités de leur transmission.

À travers la notion d’institution, nous visons trois caractéristiques principales : la tradition qui sanctionne l’existence d’un déjà-là ("c’est ainsi que l’on a toujours fait"), une normalisation, qui ajuste et régule ses modalités d’expression selon certains critères ("c’est ainsi qu’il convient de faire"), une transmission qui assure une pérennisation de la tradition, de cet héritage reçu et donc à léguer ("c’est ce qu’il faut continuer de faire"). Les institutions du sens sont donc toujours traditionnelles et normatives, garantes de la culture comme acquis constitué et à transmettre. On retrouve ainsi les institutions scolaires, patrimoniales, culturelles, etc. De la langue qu’on apprend à maîtriser même quand elle est sa langue maternelle pour qu’elle devienne sa langue de culture et de réflexion [Judet & Wisman 2004], aux pratiques traditionnelles (cuisines, artisanat) en passant par les pratiques savantes, la culture est un déjà-là qui s’autonomise en tradition normée pour pouvoir être transmise. C’est le rôle et la mission des institutions du sens que d’accompagner la constitution de la tradition normée et d’en assurer la transmission.

La tension propre à ces institutions sera le conflit permanent entre d’une part la normalisation des contenus et d’autre part une transmission autorisant leur appropriation et transformation. Comment transformer sans trahir, comment transmettre sans figer, est la question que doit traiter toute institution du sens. Si la norme donne les conditions de la répétition et de la conservation du déjà-là, l’invention et l’appropriation seront les conditions pour que ce déjà-là reste accessible, signifiant, exploitable voire utile dans l’environnement contemporain. Une norme formelle et dogmatique rend le déjà-là sans intérêt, une appropriation dérégulée revient à une perte de mémoire et de sens.

Si les institutions du sens reposent en leur possibilité sur la constitution d’un déjà-là et sa reconnaissance comme tel, il en ressort qu’on en passe nécessairement par une institutionnalisation de la mémoire qui a pour fonction de fixer le périmètre du déjà-là, de définir les règles de son accroissement et de son enrichissement, et de proposer des modalités de sa consultation, partage et transmission. Les institutions de la mémoire seront donc des instances nécessaires à la reconnaissance d’un déjà-là constitué et à sa pérennisation.

Il y a plusieurs manières de mettre en place de telles institutions et d’en fixer les missions et les contours. Notre civilisation, au cours de son histoire longue, en distingue selon nous quatre modalités principales [Bachimont 2017] : la mémoire de la preuve (les archives), celle de l’œuvre (les bibliothèques et les musées), celle de l’information (les centres de documentation et de ressources) et enfin l’identité culturelle (le patrimoine).

Aussi anciennes que l’écriture elle-même, les archives [Delsalle 1998] sont avant tout une mémoire de l’événement, une trace de ce qui s’est passé, la permanence de cette dernière permettant de pallier l’évanescence de l’événement. L’archive possède une relation organique à ce dont elle est archive : causée par l’événement dont elle consigne la mémoire, l’archive est le signe, par son existence même, de l’événement et du fait qu’il a bien eu lieu. À travers une telle relation organique, on veut insister sur le fait que, même si l’archive est un document produit par des collectifs culturels, elle est néanmoins provoquée, produite quasi naturellement par l’événement qu’elle relate. Autrement dit, elle n’est pas altérée par un processus interprétatif qui viendrait se mettre en l’événement et sa trace. Pour reprendre la belle image de Marie-Anne Chabin [2000], "Les archives procèdent de l’activité de leur auteur comme les alluvions découlent du fleuve", comme si elles consistaient en un processus naturel.

Ainsi, plus tekmerion que semeion, indice que symbole ou icône *, même si en pratique, il faut bien en passer par l’interprétation et les conventions qui lui sont inhérentes, l’archive peut être la preuve que recherchent l’historien, le juge ou l’enquêteur. Mais, puisque l’événement produit le document, ce dernier ne peut être une preuve pleine et entière que si le seul moyen de produire le document qui deviendra l’archive est que l’événement se soit produit. Par exemple, l’acte notarié est ainsi conçu que la seule manière d’avoir un acte est que l’événement associé (une transaction par exemple) ait eu lieu. Sinon, c’est un faux, c’est-à-dire un document établi pour faire croire que l’événement a eu lieu. L’archive officielle est donc une preuve déductive (si on dispose de l’archive, alors l’événement a eu lieu), les autres ont plutôt une valeur abductive plutôt que déductive (si on dispose de l’archive, la cause la plus probable ou la plus simple est que l’événement ait eu lieu mais on en reste à une présomption). C’est la raison pour laquelle l’authenticité, au sens où le document est bien ce qu’il prétend être, est si fondamentale pour les archives. C’est en effet cette dernière qui permet de retracer le schéma causal qui a produit le document à rebours, en remontant à l’événement.

La seconde modalité ou institution de mémoire mobilise les traces du génie humain, autrement dit ce qui reflète les productions de l’esprit et de la culture. Il ne s’agit pas tant d’avoir des preuves de l’événement que de disposer des traces de ce qui a été pensé ou de ce qui fut créé. L’enjeu n’est pas de savoir ce qui s’est passé, mais de connaître comment cela a été pensé. Du monde comme événement (le fait relaté par un témoignage), on remonte à la culture comme monument (le témoignage comme fait). L’authenticité n’est plus ici gagée par le lien organique entre l’événement et le document, mais entre ce dernier et son auteur. L’authenticité reposera sur l’attribution de son auteur et la détermination du contexte de création pour pouvoir en déduire le sens qu’on peut lui conférer. Les institutions en charge des œuvres sont les bibliothèques, les musées, les conservatoires. L’enjeu n’est pas tant de connaître le passé pour lui-même, mais de se reposer sur les œuvres du passé pour appréhender une part des possibilités du génie humain, une province du sens et de l’être. Les œuvres du passé n’appartiennent pas à un passé révolu, mais au présent, un présent permanent et continuel car les œuvres, sitôt produites, restent un témoignage vivant qu’il est toujours temps et opportun de recevoir. Cela ne veut pas dire qu’il n’est pas important de prendre en compte leur historicité ni leur contexte originel, mais qu’en tant que créations humaines, il est toujours actuel et pertinent pour les êtres humains de les recevoir, accueillir et interpréter.

La troisième institution de la mémoire est celle du savoir, de la connaissance et de l’information. Ni preuve ni œuvre, l’information est le savoir anonyme, sans auteur, apportant la connaissance d’un fait, d’un procédé ou d’un raisonnement possibles. Information de personne, mais information pour tous, l’information prend sa valeur à partir de l’institution qui la produit, ou le processus qui la constitue. De l’information savante gagée par la publication scientifique et son système de relecture par les pairs, à l’information journalistique fondée sur une régulation spécifique, en passant par l’institution scolaire et ses programmes, l’information doit être produite par une institution qui lui sert de caution pour être reçue comme telle et valoir comme connaissance. On comprend qu’une telle notion d’information est le cœur même des activités relevant de ce qu’on a appelé par la suite "l’information scientifique et technique", et qu’elle se formalisa lors de la révolution industrielle [Briet 1951]. Une dimension spécifique de l’information, et faisant rupture avec les figures plus anciennes de l’archive et de la bibliothèque (les preuves et les œuvres), est l’indépendance ou plutôt l’indifférence au support. Peu importe que le document soit un article ou un livre, un journal ou une encyclopédie, numérique ou matériel, il n’importe que par l’information qu’il détient. Derrière cette indifférence se cache un présupposé selon lequel le contenant n’influe pas sur le contenu, que le support matériel ne conditionne pas l’intelligibilité de l’inscription consignée sur le support. Présupposé qu’il est facile de réfuter, aucun changement de support ne pouvant être neutre quant à l’intelligibilité du contenu [Bachimont 2010]. Mais on peut voir derrière ce présupposé, non une erreur quant à la réalité de la dépendance du contenu au contenant, mais l’intérêt exclusif pour un invariant sémantique commun aux différentes expressions rencontrées sur différents supports, où l’on s’intéresse au fait, par exemple, que l’eau bout à 100°, indépendamment de l’expression qui nous a permis d’en prendre connaissance.

Cette conception abstraite du support de l’information entraîne un intérêt exclusif à l’inscription comme expression, à sa grammaire et à son lexique. Privilégiant la forme sur la matière, l’information a un tropisme naturel vers la formalisation et la circulation : formalisation car il s’agit de contrôler l’information uniquement à partir de sa forme, indépendamment de son support ; circulation parce que cette indifférence au support permet en principe la migration d’un support à un autre sans altération de l’information. Cela aboutit fort logiquement aux initiatives comme le Web des données (ou Web sémantique) où le formalisme de l’expression assure les conditions de son interprétation et de sa circulation.

Enfin, le dernier régime est celui de l’identité culturelle ou celui du patrimoine. Ce régime est le plus indéterminé des quatre considérés ici dans la mesure où il mobilise le rapport fondamental à la mémoire et à la culture : il concerne tout objet permettant à un collectif d’accéder à une mémoire, à la mémoire de son identité collective. Le patrimoine est donc, pour utiliser le vocabulaire de Gilbert Simondon [2005], ce qui permet l’individuation d’une identité collective et la constitution d’objets comme vecteurs de cette dernière. Le patrimoine est donc un jeu triple entre des objets, des individus, et un collectif tissant ces derniers ensemble. Aussi tout objet peut-il, en principe, devenir patrimonial, les règles de l’individuation n’étant pas fixées a priori. On ne peut que constater a posteriori que tels ou tels objets "font patrimoine".

L’identité collective est un déjà-là revendiqué et assumé par le collectif. Il s’agit d’une mémoire reconnue comme étant la sienne et associée à un objet qui l’incarne et la porte. Mais la seule caractéristique de cet objet est qu’il est distingué dans sa capacité de porter un souvenir, d’incarner une mémoire, de véhiculer un sens partagé. En ce sens, l’objet patrimonial est un mnémophore, un porteur de mémoire, en plagiant le néologisme naguère proposé par Krzystof Pomian, le sémiophore [1996].

L’objet patrimonial, le mnémophore, ne s’oppose pas aux autres régimes de mémoire que nous avons distingués, mais les intègre comme des modalités possibles de sa déclinaison. En effet, les preuves, œuvres et informations sont porteuses de mémoire et permettent par leur entremise un rapport au passé.

Auteur: Bachimont Bruno

Info: https://journals.openedition.org/signata/2980. *CS Peirce (1978) Écrits sur le signe. Paris, Seuil.

[ conservatisme ] [ pré-mémétique ] [ damnatio memoriae ] [ diachronie ] [ sciences ] [ humaines tiercités ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

L’Âge de la colère Parfois, après une longue attente, apparaît un livre qui écorche l’esprit du temps, brillant comme un diamant fou. Age of Anger, de Pankaj Mishra, auteur aussi du livre fondateur From the Ruins of Empire, pourrait bien en être le dernier avatar.

Pensez à ce livre comme à une ultime arme – conceptuelle – mortelle, fichée dans les cœurs et les esprits d’une population dévastée d’adolescents cosmopolites déracinés 1 qui s’efforcent de trouver leur véritable vocation, au fur et à mesure que nous traversons péniblement la plus longue période – le Pentagone dirait infinie – de guerres mondiales ; une guerre civile mondiale – que dans mon livre 2007 Globalistan j’ai appelée " Liquid War " : Guerre nomade.

L’auteur, Mishra, est un pur produit, subtil, de East-meets-West 2. Il soutient, pour l’essentiel, qu’il est impossible de comprendre le présent si nous ne reconnaissons pas la prégnance souterraine de la nostalgie du mal du pays, qui contredit l’idéal du libéralisme cosmopolite, incarné dans une " société commerciale universelle d’individus rationnels, conscients de leurs intérêts personnels ", conceptualisée par les Lumières via Montesquieu, Adam Smith, Voltaire et Kant.

Le vainqueur de l’histoire est finalement le récit aseptisé des Lumières bienveillantes. La tradition du rationalisme, de l’humanisme, de l’universalisme et de la démocratie libérale était censée avoir toujours été la norme. Il était " manifestement trop déconcertant ", écrit Mishra, " de reconnaître que la politique totalitaire cristallisait des courants idéologiques – racisme scientifique, rationalisme chauvin, impérialisme, technicisme, politique esthétisée, utopie, ingénierie sociale " qui bouleversaient déjà l’Europe à la fin du XIXe siècle. Ainsi, évoquant " le regard furtif en arrière, au-dessus de l’épaule, vers la terreur primitive ", de T.S. Eliot –, qui a finalement conduit l’Ouest à se dresser contre Le Reste du Monde –, nous devons regarder les précurseurs. Fracasser le Palais de Cristal

Entre en scène Eugène Onéguine de Pouchkine, " le premier d’une grande lignée d’hommes inutiles dans la fiction russe ", avec son chapeau de Bolivar, tenant une statue de Napoléon et un portrait de Byron, allégorie de la Russie essayant de rattraper l’Occident, " une jeunesse spirituellement déchaînée avec une conception quasi-byronienne de la liberté, encore pleine du romantisme allemand ". Les meilleurs critiques des Lumières devaient être Allemands et Russes, derniers venus à la modernité politico-économique. Deux ans avant de publier ses étonnants Carnets du sous-sol, Dostoïevski, dans sa tournée en Europe occidentale, voyait déjà une société dominée par la guerre de tous contre tous, où la plupart étaient condamnés à être perdants.

À Londres, en 1862, à l’Exposition internationale au Palais de Cristal, Dostoïevski eut une illumination : " Vous prenez conscience d’une idée colossale […] qu’il y a ici la victoire et le triomphe. Vous commencez même vaguement à avoir peur de quelque chose. " Tout stupéfié qu’il était, Dostoïevski, plutôt astucieux, a pu observer comment la civilisation matérialiste était tout autant renforcée par son glamour que par sa domination militaire et maritime.

La littérature russe a finalement cristallisé le crime de hasard comme le paradigme de l’individualité savourant son identité et affirmant sa volonté – thème repris plus tard, au milieu du XXe siècle, par l’icône de la Beat Generation William Burroughs, qui prétendait que tirer au hasard était son frisson ultime.

Le chemin avait été tracé pour que le festin des mendiants commence à bombarder le Palais de Cristal – même si, comme Mishra nous le rappelle : " Les intellectuels du Caire, de Calcutta, de Tokyo et de Shanghai lisaient Jeremy Bentham, Adam Smith, Thomas Paine, Herbert Spencer et John Stuart Mill " pour comprendre le secret de la bourgeoisie capitaliste en perpétuelle expansion.

Et ceci après que Rousseau, en 1749, a posé la pierre angulaire de la révolte moderne contre la modernité, aujourd’hui éparpillée dans un désert où les échos se répondent, le Palais de Cristal est de facto implanté dans des ghettos luisants partout dans le monde.

Le Bwana des Lumières : lui mort, Missié

Mishra crédite l’idée de son livre à Nietzsche, en commentant la querelle épique entre l’envieux plébéien Rousseau et Voltaire, l’élitiste serein – qui a salué la Bourse de Londres, quand elle est devenue pleinement opérationnelle, comme l’incarnation laïque de l’harmonie sociale.

Mais ce fut Nietzsche qui finit par devenir l’acteur central, en tant que féroce détracteur du capitalisme libéral et du socialisme, faisant de la promesse séduisante de Zarathoustra un Saint Graal attractif pour les bolcheviks – Lénine le haïssait –, le gauchiste Lu Xun en Chine , les fascistes, anarchistes, féministes et hordes d’esthètes mécontents.

Mishra nous rappelle également comment " les anti-impérialistes asiatiques et les barons voleurs américains empruntent avec empressement " à Herbert Spencer, " le premier penseur véritablement mondial " qui a inventé le mantra de " la survie du plus apte " après avoir lu Darwin.

Nietzsche était le cartographe ultime du ressentiment. Max Weber a prophétiquement décrit le monde moderne comme une " cage de fer " dont seul un leader charismatique peut permettre l’évasion. De son côté, l’icône anarchiste Mikhaïl Bakounine avait déjà, en 1869, conceptualisé le révolutionnaire coupant " tout lien avec l’ordre social et avec tout le monde civilisé […] Il est son ennemi impitoyable et continue de l’habiter avec un seul but : Détruire ".

S’échappant du " cauchemar de l’histoire " du suprême moderniste James Joyce – en réalité la cage de fer de la modernité – une sécession, viscéralement militante, hors " d’une civilisation fondée sur un progrès éternel sous l’administration des libéraux-démocrates " est en train de faire rage, hors de contrôle, bien au-delà de l’Europe.

Des idéologies, qui pourraient être radicalement opposées, ont néanmoins grandi en symbiose avec le tourbillon culturel de la fin du XIXe siècle, depuis le fondamentalisme islamique, le sionisme et le nationalisme hindou jusqu’au bolchevisme, au nazisme, au fascisme et à l’impérialisme réaménagé.

Dans les années trente, le brillant et tragique Walter Benjamin, avait non seulement prophétisé la Seconde Guerre mondiale mais aussi la fin de la partie, alors qu’il était déjà en train d’alerter sur la propre aliénation de l’humanité, enfin capable " d’expérimenter sa propre destruction comme un plaisir esthétique du premier ordre ". La version pop actuelle en live-streaming, style bricolage, comme ISIS, essaie de se présenter comme la négation ultime des piétés de la modernité néolibérale.

L’ère du ressentiment

Tissant les fils savoureux de la politique et de la littérature par pollinisation croisée, Mishra prend son temps pour poser la scène du Grand Débat entre ces masses mondiales en développement, dont les vies sont forgées par " l’histoire largement reconnue de la violence " de l’Occident atlantiste, et des élites modernes nomades (Bauman) tirant profit du rendement de la partie – sélective – du monde qui a fait les percées cruciales depuis les Lumières dans la science, la philosophie, l’art et la littérature.

Cela va bien au-delà d’un simple débat entre l’Orient et l’Occident. Nous ne pouvons pas comprendre la guerre civile mondiale actuelle, ce " mélange intense d’envie, de sentiment d’humiliation et d’impuissance post-moderniste et post-vérité ", si nous n’essayons pas de " démanteler l’architecture conceptuelle et intellectuelle des gagnants de l’histoire en Occident ", issue du triomphalisme des exploits de l’histoire anglo-américaine. Même au summum de la Guerre froide, le théologien américain Reinhold Niebuhr se moquait des " ternes fanatiques de la civilisation occidentale " dans leur foi aveugle selon laquelle toute société est destinée à évoluer exactement comme une poignée de nations occidentales – parfois – l’ont fait.

Et cela – ironie ! – tandis que le culte internationaliste libéral du progrès imitait le rêve marxiste de la révolution internationaliste.

Dans sa préface de 1950 aux Origines du totalitarisme – un méga best-seller ressuscité –, Hannah Arendt nous a essentiellement dit d’oublier la restauration éventuelle du Vieil ordre mondial. Nous avons été condamnés à voir l’histoire se répéter, " l’itinérance à une échelle sans précédent, l’absence de racines à une profondeur sans précédent ".

Pendant ce temps, comme Carl Schorske l’a noté dans son spectaculaire Fin-de-Siècle à Vienne : Politique et Culture, l’érudition américaine a " coupé le lien de conscience " entre le passé et le présent, carrément aseptisé l’Histoire, des siècles de guerre civile, de ravage impérial, de génocide et d’esclavage en Europe et en Amérique ont ainsi tout simplement disparu. Seul le récit TINA (il n’y a pas d’alternative) a été autorisé, voici comment les atlantistes, avec le privilège de la raison et l’autonomie de la personne, ont fait le monde moderne.

Entre maintenant en scène Jalal Al-e-Ahmad, né en 1928 dans le sud pauvre de Téhéran, et l’auteur de Westoxification (1962), un texte majeur de référence sur l’idéologie islamiste, où il écrit que " l’Érostrate de Sartre tire au revolver, avec les yeux bandés, sur les gens dans la rue ; le protagoniste de Nabokov précipite sa voiture dans la foule ; et l’Étranger, Meursault, tue quelqu’un en réaction à un mauvais coup de soleil ". Vous pouvez parler d’un croisement mortel – l’existentialisme rencontre les bidonvilles de Téhéran pour souligner ce que Hanna Arendt a appelé la " solidarité négative ".

Arrive ensuite Abu Musab al-Suri, né en 1958 – un an après Osama ben Laden – dans une famille de la classe moyenne dévote, à Alep. C’est Al-Suri, et non l’Égyptien Al-Zawahiri, qui a conçu une stratégie de djihad mondial sans leader dans The Global Islamic Resistance Call, basée sur des cellules isolées et des opérations individuelles. Al-Suri était le " choc des civilisations " de Samuel Huntington appliqué à al-Qaïda. Mishra le définit comme le " Michel Bakounine du monde musulman ".

Cette " syphilis des passions révolutionnaires

Répondant à cette ridicule affaire néo-hégélienne de " fin de l’histoire ", après la Guerre froide, Allan Bloom a averti que le fascisme pourrait être l’avenir ; et John Gray a télégraphié le retour des " forces primordiales, nationalistes et religieuses, fondamentalistes et bientôt, peut-être, malthusiennes ".

Et cela nous amène à expliquer pourquoi les porteurs exceptionnels de l’humanisme et du rationalisme des Lumières ne peuvent expliquer l’agitation géopolitique actuelle – de ISIS au Brexit et à Trump. Ils ne peuvent jamais arriver à penser quelque chose de plus sophistiqué que l’opposition binaire de libre et non libre ; les mêmes clichés occidentaux du XIXe siècle sur le non-Occident ; et la diabolisation incessante de cet éternel Autre arriéré : l’islam. De là la nouvelle " longue guerre " (terminologie du Pentagone) contre l’islamofascisme. Ils ne pourraient jamais comprendre, comme le souligne Mishra, les implications de cette rencontre d’esprits dans une prison de Supermax au Colorado entre l’auteur de l’attentat d’Oklahoma City, l’Américain pur jus Timothy McVeigh et le cerveau de la première attaque contre le World Trade Center, Ramzi Yousef (musulman normal, père pakistanais, mère palestinienne).

Ils ne peuvent pas comprendre comment les concepteurs d’ISIS arrivent à enrégimenter, en ligne, un adolescent insulté et blessé d’une banlieue parisienne ou d’un bidonville africain et le convertir en narcissique – baudelairien ? – dandy fidèle à une cause émergente, pour laquelle il vaut la peine de se battre. Le parallèle entre le bricolage djihadiste et le terrorisme russe du XIXe siècle – incarnant la " syphilis des passions révolutionnaires ", comme l’a décrit Alexander Herzen – est étrange.

Le principal ennemi du djihad de bricolage n’est pas même chrétien; c’est le shi’ite apostat. Les viols massifs, les meurtres chorégraphiés, la destruction de Palmyre, Dostoïevski avait déjà tout identifié. Comme le dit Mishra, " il est impossible pour les Raskolnikov modernes de se dénier quoi que ce soit, mais il leur est possible de justifier tout ".

Il est impossible de résumer tous les feux croisés rhizomatiques – salut à Deleuze et Guattari – déployés à l’Âge de la colère. Ce qui est clair, c’est que pour comprendre la guerre civile mondiale actuelle, la réinterprétation archéologique du récit hégémonique de l’Occident des 250 dernières années est essentielle. Sinon, nous serons condamnés, comme des gnomes de Sisyphe, à supporter non seulement le cauchemar récurrent de l’Histoire, mais aussi son coup de fouet perpétuel.

Auteur: Escobar Pepe

Info: Février 2017, CounterPunch. Beaucoup d'idées sont tirées de son ouvrage : Globalistan, How the Globalized World is Dissolving into Liquid War, Nimble Books, 2007

[ vingt-et-unième siècle ]

 

Commentaires: 0

philosophie

Tout le monde a une théorie sur ce qui se passe dans notre monde. Mais beaucoup sont partielles, ou fragmentaires, ou trop simples – attribuant trop d'importance au "capitalisme", au "mondialisme", à "l'opportunisme" ou aux "conséquences imprévues". Nous devons continuer à essayer de donner un sens à l'ensemble du scénario.

Commençons par quelques grandes hypothèses sur ce qui se passe. L'hypothèse de René Guénon, esquissée pour la première fois vers 1930, était que toutes les civilisations possèdent des pouvoirs spirituels et temporels et incorporent donc en quelque sorte une tension entre les deux : mais que, pour la première fois dans l'histoire, notre modernité, à partir de  1500, a placé le temporel au-dessus de l'Eternel, le matériel au-dessus du spirituel : en bref, 'l'état' au-dessus de 'l'église'.  On a vu quelques hypothèses connexes proposées en même temps : comme celle de Julien Benda selon laquelle les clercs, ou intellectuels, avaient déplacé leur préoccupation : ainsi l'immense valeur qu'ils avaient toujours attribuée aux choses non mondaines était maintenant attribuée aux choses mondaines. C'est-à-dire que les intellectuels étaient maintenant corrompus, en quelque sorte suivistes de profits sales.

Un ami américain a récemment attiré mon attention sur certains des écrits récents d'un romancier et essayiste, Paul Kingsnorth . A l'origine anticapitaliste, il se croyait à gauche, et se retrouve aujourd'hui plus ou moins à droite. Son hypothèse est que le déclin du christianisme dans notre civilisation – déclin de l'éternel et du spirituel – coïncide et a probablement été causé par la montée de ce qu'il nomme "mythe du progrès". Le progrès, c'est la conviction que le monde, ce monde, va mieux. Ce mythe est le genre de chose que nous pouvons associer à Francis Bacon ou John Stuart Mill, ou encore Bayle, Mandeville, Voltaire, Smith, Hegel, Comte, Marx - plus ou moins tout le monde des XVIIe au XIXe siècles, sauf pour des gens un peu plus pointus comme Bossuet ou Maistre, aussi pour Burke à la toute fin de sa vie. Kingsnorth construit une vision très efficace de l'histoire sur cette hypothèse, ce qui lui permet d'expliquer pourquoi gauchistes et corporatistes s'accordent si bien aujourd'hui. Tous, dit-il, veulent du progrès. Ils contribuent tous à ce qu'il appelle la Machine.

Acceptons ces deux hypothèses. Mais je dois en ajouter un troisième, qui ajoute une complication interne à la deuxième, et rend ainsi l'ensemble du scénario un peu plus dynamique. Cela peut même expliquer pourquoi il y a tant de confusion sur ce qui s'est passé. L'hypothèse est qu'il n'y a jamais eu un seul "mythe du progrès" : la puissance du mythe du progrès était qu'il contenait un contradiction interne, comme les traducteurs de Hegel ont eu l'habitude de la nommer : une division intérieure.  Deux positions rivales en désaccord sur le comment alors même qu'elles étaient d'accord sur le quoi . Le quoi étant un présupposé absolu - quelque chose de si fondamental qu'il n'a jamais été remis en question par aucune des parties. Comme c'est toujours le cas, le désaccord au premier plan détournait l'attention de l'accord plus profond qui dominait tout à l'arrière-plan.

Ce sur quoi ils étaient d'accord, c'est que des progrès se produisaient et devaient se produire . Ce sur quoi ils n'étaient pas d'accord, c'était comment cela devait se passer. Je simplifie bien sûr ici, mais simplifier un argument en deux positions est bien moins simple que de le simplifier en une position.

D'un côté il y avait l'argument selon lequel des progrès étaient en cours, que cela nous plaise ou non. Cela se produisait à travers ce qu'Adam Smith appelait la main invisible, ou ce que Samuel Johnson appelait la concaténation secrète, ce que nous appelons parfois maintenant la loi des conséquences imprévues. C'est le processus par lequel de nombreux humains, à la poursuite de leurs propres intérêts individuels, ont contribué à l'émergence d'un bien qu'aucun n'avait jamais voulu, et qu'aucun n'avait anticipé, mais qui pouvait être compris rétrospectivement.

De l'autre côté, il y avait l'argument selon lequel le progrès ne se produirait que si nous adoptions les bonnes croyances rationnelles, les bonnes vues éclairées ( iberté, égalité, fraternité, etc.), et si nous nous efforcions d'imposer au monde les politiques ou les schémas suggéré par les bonnes croyances rationnelles et les bonnes vues éclairées. Il s'agissait de mettre l'accent sur la planification plutôt que sur les conséquences imprévues : et la planification ne pouvait être efficace que si elle était effectuée par ceux au pouvoir. Ainsi, les puissants devaient être subjugués par les experts de l'illumination.

La différence entre ces deux positions est que l'une y voit un processus inconscient , l'autre y voit une impulsion consciente. Ces deux positions ont dominé le débat politique deux siècles durant : d'une part, les uns ont privilégié les marchés et l'activité privée indépendante et apparemment (mais pas réellement ou finalement) égoïste, et d'autre part, un caméralisme, un colbertisme ou un comtisme de la planification scientifique. et l'activité publique collective.

En pratique, bien sûr, les deux ont été mélangées, ont reçu des noms variés, et certaines personnes qui ont commencé d'un côté pour se retrouver de l'autre : pensez à la dérive de John Stuart Mill ou de TH Green du libéralisme au socialisme ; mais considérez également la dérive de Kingsley Amis, Paul Johnson et John Osborne dans l'autre sens. Décoller tout cela est un boulôt de dingue : il faut peut-être le laisser aux historiens qui ont la patience de le faire. Mais les historiens ont tendance à embrouiller les choses... Alors tout ça mérite quelques explications : et l'expliquer dans l'abstrait, comme je le fais ici, permet certainement d'expliquer pourquoi les libéraux ont parfois été d'un côté ou de l'autre, et pourquoi les conservateurs sont tout aussi chimériques. 

Le point de cette hypothèse est de dire que toute la politique des deux derniers siècles fut dominée par des arguments sur la question de savoir si le progrès aurait lieu dans l'observance ou dans la violation, pour ainsi dire : s'il devrait être théorisé consciemment et ensuite imposée par une politique prudente, ou si il devait survenir sans planification délibérée de telle manière que seuls les historiens ultérieurs pourraient le comprendre pleinement. Mais tout ça est terminé. Nous sommes maintenant à l'étape suivante.

Cela s'explique en partie par le fait que, comme le dit Kingsnorth, le mythe du progrès - bien qu'il ne soit pas entièrement mort - parait pratiquer ses derniers rites. Il est sans doute en difficulté depuis les années 1890, a été secoué par la Première Guerre mondiale ; mais il a subi ses chocs récents depuis les années 1970, avec la pollution, la surpopulation, la stagflation, l'ozone, le dioxyde de carbone, les prêts hypothécaires à risque, etc. Pour l'instant les mondialistes ne savent pas exactement comment concilier le cercle du désir de "progrès" (ou, du moins comment être "progressiste") tout en faisant simultanément promotion de la "durabilité". Si nous avons un mythe en ce moment c'est sûrement le mythe de la durabilité. Peut-être que les mondialistes et les localistes comme Kingsnorth constateront que, bien qu'ils soient en désaccord sur beaucoup de choses - COVID-19, par exemple - ils sont d'accord sur la durabilité.

Mais il y a quelque chose à ajouter, une quatrième hypothèse, et c'est vraiment l'hypothèse suprême. J'ai dit que pendant quelques siècles, il y avait la planification contre le laissez-faire , ou la conscience contre les conséquences imprévues - les deux essayant de trouver comment rendre le monde, ce monde, meilleur. Mais il y a autre chose. La quatrième hypothèse est que certains personnages du début du XIXe siècle entrevoyaient que les deux positions pouvaient se confondre. Hegel était l'une de ces figures ; même Marx. Il y en eut d'autres; qui sont nombreux maintenant. Fusion qui signifiait quelque chose comme ce qui suit :

Jusqu'à présent, nous avons fait l'erreur de penser que le bien peut être imposé consciemment - généralement par le biais de préceptes religieux - mais nous avons découvert, grâce à Mandeville, Smith et les économistes, que le bien peut être obtenu par des conséquences involontaires. Ce qui ne signifie cependant pas que nous devrions adopter une politique de laissez-faire : au contraire, maintenant que nous comprenons les conséquences imprévues , nous savons comment fonctionne tout le système inconscient du monde, et puisque nous savons comment intégrer notre connaissance de ceci dans notre politique, nous pouvons enfin parvenir à un ordre mondial scientifique et moral ou probant et justifié parfait.

Est-ce clair? Les Lumières écossaises ont créé l'expert empirique, qui a fusionné avec le progressiste conscient moralement assuré, pour devenir l'espoir du monde. Sans doute, la plupart d'entre nous ont abandonné les fantasmes hégéliens et marxistes de "fin de l'histoire" ou d'"émancipation", mais je pense que l'ombre de ces fantasmes a survécu et s'est achevée dans le récent majoritarisme scientifique et moral, si clairement vu depuis que le COVID-19 est arrivé dans le monde.

Si j'ai raison à propos de cette quatrième hypothèse, cela explique pourquoi nous sommes si confus. Nous ne pouvons pas donner un sens à notre situation en utilisant le vieux langage du "collectivisme" contre "l'individualisme". Le fait est qu'à notre époque post-progressiste, les experts se sentent plus justifiés que jamais pour imposer à chacun un ensemble de protocoles et de préceptes "fondés sur des preuves" et "moralement justifiés". Plus justifiés parce que combinant la connaissance de la façon dont les choses fonctionnent individuellement (par la modélisation et l'observation de processus inconscients ou de conséquences imprévues) avec la certitude sur ce qu'il est juste de faire collectivement (étant donné que les vieux fantasmes de progrès ont été modifiés par une idéologie puritaine et contraignante de durabilité et de survie, ajoutée de diversité, d'équité et d'inclusion - qui sert d'ailleurs plus d'impulsion de retenue que d'anticipation d'une émancipation du marxisme)

Ce n'est pas seulement toxique mais emmêlé. Les niveaux d'hypocrisie et d'auto-tromperie impliqués dans cela sont formidables. Les mondialistes ont une doctrine à toute épreuve dans leur politique durable qui sauve le monde, ou "durabilité". Elle est presque inattaquable, puisqu'elle s'appuie sur les plus grandes réalisations des sciences naturelles et morales. Tout ça bien sûr alimenté par une ancienne cupidité acquisitive, mais aussi par le sentiment qu'il faut offrir quelque chose en échange de leur manque de privilèges à ceux qui ont besoin d'être nivelés ; et tout ça bien sûr rend le monde meilleur, "sauve" la planète, dorant les cages des déshérités et les palais des privilégiés de la même laque d'or insensée.

Peut-être, comme l'entrevoient Guenon et Kingsnorth – également Delingpole et Hitchens – la vérité est-elle que nous devons réellement remonter à travers toute l'ère de la durabilité et l'ère du progrès jusqu'à l'ère de la foi. Certes, quelqu'un ou quelque chose doit forcer ces "élites" à se soumettre à une vision supérieure : et je pense que la seule façon de donner un sens à cela pour le moment est d'imaginer qu'une église ou un prophète ou un penseur visionnaire puisse abattre leur État - la laïcité corporate-, leur montrer que leur foi n'est qu'une idéologie servant leurs intérêts, et qu'ils doivent se soumettre à une doctrine authentiquement fondée sur la grâce,  apte à admettre la faute, l'erreur, voire le péché. Cela ne se ferait pas par des excuses publiques ou une démonstration politique hypocrite, mais en interrogeant leurs propres âmes.

Je suis pas certain que c'est ce qui arrivera, ni même que cela devrait arriver (ou que cela pourrait arriver) : mais c'est certainement le genre de chose qui doit arriver. Autrement dit, c'est le genre de chose que nous devrions imaginer arriver. Ce qui se passera sera soit du genre Oie Blanche ancienne, soit peut-être un événement inattendu style "Black Swan" (pas nécessairement une bonne chose : nous semblons trop aimer la crise en ce moment). Mais, de toute façon, une sensibilité réactionnaire semble être la seule capable de manifester une quelconque conscience de ce qui se passe.

Pour clarifier, permettez-moi d'énoncer à nouveau les quatre hypothèses sur ce phénomène :

1. A travers toutes les époques, il y a eu un équilibre entre spiritualité et  sécularisation. Dans notre modernité, la sécularité est dominante. Il n'y a que ce monde.

2. Depuis environ trois siècles, nous croyons que ce monde s'améliore et devrait s'améliorer. C'est le "mythe du progrès".

3. Il y a toujours eu des désaccords sur le progrès : certains pensaient qu'il était le fruit du hasard et de l'intérêt individuel ; d'autres pensaient qu'il ne pouvait être que le résultat d'une conception délibérée.

4. Nous ne devons pas ignorer qu'il y a eu une fusion très intelligente de ces deux positions : une fusion qui ne s'est pas évanouie avec l'évanouissement du "mythe du progrès" mais qui survit pour soutenir la politique étrange et nouvelle de ce que nous pourrions appeler le "mythe de la durabilité". Cette fusion est extrêmement condescendante et sûre d'elle-même car elle associe la certitude scientifique de ce qui s'est passé inconsciemment pour améliorer le monde à la certitude morale de ce qui devrait maintenant être fait consciemment pour améliorer le monde. Elle semble réunir individu et collectif d'une manière qui est censée rendre impossible tout renoncement.

 

Auteur: Alexander James

Info: Daily Skeptic. Quatre hypothèses sur l'élite mondiale laïque-corporatiste, 20 février 2023. Trad Mg, avec DeePL

[ état des lieux ]

 

Commentaires: 0

Ajouté à la BD par miguel

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

boomers vs wokes

Kompromat à la française - Pour avoir réussi un coup de maître – faire signer 50 artistes pour défendre Gérard Depardieu – Yannis Ezziadi est à son tour lynché. Cette affaire restera un cas d’école de la mécanique de la Terreur qui veut en finir avec toute singularité.



Pouvez-vous expliquer ces blagues ? Dans le brouhaha malveillant orchestré autour de la tribune de 50 artistes et assimilés pour Depardieu et de son auteur, notre ami Yannis Ezziadi, cette question que lui a adressée Marine Turchi dit la vérité la plus profonde de toute cette affaire (et de pas mal d’autres).



Dans le monde rêvé des néo-féministes en particulier et des wokistes en général, tout passe au hachoir de l’esprit de sérieux : l’art, la littérature, le sexe (abaissé à un ennuyeux pacte contractuel) et l’humour lui-même, prié de participer à la rééducation des masses boomeuses et dépravées.



Pour bien faire comprendre la dangerosité du gars, il me faut reproduire quelques-unes de ces plaisanteries citées à comparaître. Pour vous, c’est cadeau. D’abord, il y a cette citation de Courteline, postée en 2013 (les fouilleurs de poubelles numériques sont consciencieux):  L’homme est le seul mâle qui batte sa femelle. Il est donc le plus brutal des mâles, à moins que, de toutes les femelles, la femme soit la plus insupportable. Le petit malin (il avait 22 ans), avait assorti la citation de ce commentaire :  Je vais me faire lyncher, mais c’est tellement drôle.  Plus grave, car sortie du cerveau malade de l’auteur, cette blague de février 2021 : Pour les accusations de violences sexuelles, heureusement, ce ne sera pas comme pour le Covid. Une fois que la majorité des hommes aura été accusée de viol et d’inceste, ils seront peut-être protégés par l’immunité collective. C’est le seul espoir… Espoir fortement déçu. Si ça vous a fait marrer, votre compte est bon : vous êtes un défenseur des violences sexistes-et-sexuelles et un amateur de violences conjugales. Ou le contraire.



Vous avez le droit de rire, à condition que ce rire ne soit jamais traversé de mauvaises pensées. J’aimerais bien savoir à quoi sert l’humour s’il n’est pas le sauf-conduit de nos mauvaises pensées, le refuge du négatif. Si ça se trouve, nos mangeuses d’hommes n’ont jamais de mauvaises pensées. Les pauvres. Et pauvres de nous. Le règne de la positivité, du premier degré, de la transparence est ce qui s’apparente le plus au meilleur des mondes. C’est-à-dire à l’enfer.



Mais je reviens à mes moutons, en l’occurrence au bouc. Pour ceux qui l’ignorent, Marine Turchi, qui officie à Mediapart, est à la nouvelle terreur féministe ce que Vychinski était au stalinisme. Procureur implacable, elle est capable d’écouter des dizaines d’heure du Masque et la plume , pour révéler qu’on y a dit 32 fois salope ou entendu 41 blagues sexistes (les chiffres sont fantaisistes). Il faut lui reconnaître  une certaine conscience professionnelle. Turchi monte ses dossiers. Et bien sûr, elle donne la parole à l’accusé, parole qui se retrouve généralement noyée entre les témoignages accusatoires. Turchi exerce sa charge avec une certaine froideur, alors qu’Ariane Chemin, qui requiert au Monde, semble animée par la passion de nuire. Mais les deux, formées à l’école Plenel, ont le même talent pour construire et imposer un récit totalement fantasmé des faits qu’elles évoquent. En l’occurrence, elles ont réussi à faire passer l’initiative d’un franc-tireur baroque et flamboyant pour une opération d’extrême droite, orchestrée par "la galaxie Bolloré " pour faire main basse sur le monde de la culture – galaxie, ça vous a un petit air Guerre des étoiles, bien contre mal etc. Ces affabulations complotistes ont suffi à déclencher une chasse à l’homme.



Pour les historiens qui étudieront le totalitarisme sans goulag (analysé par Mathieu Bock-Côté dans son dernier livre) et se demanderont comment des peuples cultivés ont pu se laisser déposséder de leurs libertés sans la moindre contrainte militaire ou physique, l’affaire de la pétition Depardieu sera un cas d’école. Un modèle d’efficacité de la mécanique de la terreur.



Premier acte : panique au quartier général.



Cinquante-six artistes et producteurs dénoncent le lynchage de Depardieu. Un bras d’honneur à la loi du Milieu. Un artiste peut à la limite se taire (bien que cela soit parfois suspect). Mais s’il l’ouvre, il n’a qu’un droit : celui d’énoncer les poncifs du progressisme prêchi-prêcheur, en commençant par quelques génuflexions devant la révolution #metoo. S’il veut cocher toutes les cases, il peut lutter contre la loi scélérate sur les retraites (Bosser jusqu’à 63 ans, jamais !), dénoncer les crimes climatiques des riches et des ploucs, manifester (dans son salon) pour l’accueil des migrants. Cependant, s’il n’a pas le temps de dispenser sa compassion à tout-va, une cause contient toutes les autres, la lutte contre l’extrême droite. C’est la formule magique, la carte du Parti. Qui, en plus d’offrir à son détenteur la considération de France Inter lui permet de bosser.



Sans la sortie d’Emmanuel Macron, qui a déclaré quelques jours plus tôt que Depardieu faisait la fierté de la France, l’affaire en serait peut-être restée là. Du reste, sans l’encouragement présidentiel, les signataires auraient certainement été moins nombreux et moins titrés. Cette fois, il ne s’agit pas des sans-grades de l’intermittence du spectacle, ni de réacs estampillés, mais de stars. Certaines sont sur le retour ou en fin de carrière (ce qui permettra à d’élégants plumitifs de calculer l’âge moyen des signataires), d’autres sont inconnus, mais il y a aussi des comédiens bankables, dont les noms aident à monter un film.



C’est bien ce qui enrage le clergé médiatico-culturel, habitué à voir ses excommunications et proscriptions appliquées sans protestations. La volaille qui fait l’opinion sent le danger : sous peine de voir son pouvoir d’intimidation ébranlé, il lui faut frapper fort. On peut compter sur la police politique.



Acte II. On discrédite le message.



C’est simple : il n’y a qu’à saucissonner le texte en lui faisant dire ce qu’il ne dit pas – que Depardieu a tous les droits, y compris de cuissage. Peut-être y a-t-il des maladresses de rédaction, le texte n’établissant pas assez clairement la différence entre des accusations de viol et des blagues obscènes. Reste que 55 personnes l’ont signé en connaissance de cause – le seul à avoir longuement essayé d’introduire des modifications a été Yvan Attal qui, malgré ces désaccords, a maintenu sa signature. Des agents, des avocats l’ont lu, beaucoup ont dissuadé leurs clients de signer, d’autres ont approuvé des deux mains.



A lire aussi, Dominique Labarrière: Affaire Depardieu: la bourgeoisie de farces et attrapes dans tous ses états



Que ce texte choque, c’est naturel, mais pas pour les raisons invoquées par les milices vigilantes qui sévissent dans les égouts numériques. Le scandale c’est que des artistes puissent adopter le point de vue de l’art plutôt que celui de la morale. Qu’ils affirment clairement que le génie de l’artiste leur importe plus que les agissements de l’homme – cela ne signifie pas que l’un excuse les autres. L’histoire retiendra-t-elle de Picasso qu’il a mal traité ses femmes ou été un artiste de génie ? La réponse à cette question dépendra de l’issue de la guerre idéologique entre les déconstructeurs et les héritiers. En attendant, ce ne sont pas des hommes déconstruits qui ont fait l’histoire de l’art. Ni l’histoire tout court.



Les maîtresses d’école[1] qui surveillent le débat public n’entendent rien à cette grammaire qui échappe aux cadres rigides structurant leur pensée. Elles se contentent de distribuer froncements de sourcils et coups de règles aux signataires. Ils n’ont pas un mot pour les victimes (qui sont en réalité des plaignantes), preuve qu’ils sont solidaires des agresseurs, violeurs et autres pédophiles. Ces premières sommations entraînent déjà quelques défections, sur le mode " J’avais mal lu " voire " J’ai signé sans lire ". Mais croyez-le bien je pense tous les jours aux violences contre les femmes.



Acte III. On brûle le messager.



Là, on ne rigole plus. La hauteur de l’affront exige une victime expiatoire. Après les préliminaires, se met en branle une mécanique proprement totalitaire, de celles qui broient les individus pour la bonne cause. Dans les sacristies médiatiques, on découvre avec fureur que le diablus ex machina de cette sorcellerie est un quasi inconnu (sauf pour les heureux lecteurs de Causeur et les afficionados). Voilà un type qui prétend avoir, avec ses petits bras, convaincu des vedettes comme Bertrand Blier, Carole Bouquet ou Pierre Richard de prendre la défense d’un homme que Le Monde et Mediapart ont pourtant condamné à la mort sociale.



Il faut lui donner une leçon, à lui et à tous ceux qui l’ont suivi. Leur faire passer l’envie de récidiver. On s’intéresse donc à sa personne, débitée en tranches avec encore plus de malveillance que son texte. De ce point de vue, l’article d’Ariane Chemin mérite la médaille d’or de la dégueulasserie journalistique. Avec quelques micro-bouts de vérité, elle dresse un portrait totalement mensonger intitulé : À la source de la tribune pour Depardieu, un comédien proche des sphères identitaires et réactionnaires. Non seulement il écrit dans Causeur, mensuel dépeint, selon les médias ou les jours, comme d’extrême droite, conservateur, ultra-conservateur ou réactionnaire, mais Chemin souligne qu’il est ami avec Sarah Knafo et Eric Zemmour et qu’il fait la fête avec votre servante. À l’évidence, pour Chemin, l’amitié ne saurait tolérer la divergence. Quant à nos fêtes, elle doit s’imaginer qu’on y récite des horreurs racistes et sexistes affublés de chapeaux pointus. Nous passons en effet d’excellentes soirées à rire, nous disputer, boire, manger, danser, chanter et rire encore. Tout ce rire, c’est suspect, chef. Surtout entre gens qui ne pensent pas la même chose.



Les articles d’Ezziadi sont passés à la même moulinette diffamatoire. Le texte magnifique dans lequel il démonte la mécanique complotiste qui lui a retourné le cerveau à l’âge de 18 ans devient une preuve à charge : le gars est un « dieudonniste repenti » (ce qui signifie dieudonniste toujours). Sa charge contre Jean-Paul Rouve qui joue Matzneff en monstre et se dit fier de ne rien comprendre à son personnage est présentée comme une défense de l’écrivain à nymphettes. Pour sa défense, Ezziadi cite Bruno Ganz qui, dans la Chute, campait un Hitler diablement humain et fut honoré pour cela. Certains en concluent sans doute qu’en prime, il est nazi. Son reportage sur l’islamisation rampante de Nangis, paisible ville de Seine et Marne fait de lui un adepte de " la théorie complotiste-extrême-droite du Grand remplacement " sans que quiconque se donne la peine de réfuter les faits qu’il décrit – et pour cause. Et quand il affirme, sur LCI, que les hommes ont peur, son interlocutrice, une péronnelle blonde à l’air méchant, le toise, semblant penser qu’ils ont bien raison d’avoir peur, toi le premier. Les ligues de vertu avaient fabriqué un monstre avec Depardieu. En une semaine, elles accouchent d’une nouvelle figure du mal et du mâle à abattre.



Acte IV. La litanie des autocritiques.



Pour nombre de signataires, la pression morale et financière est insupportable. Ils n’ont pas l’habitude des flots de haine et d’injures qui s’abattent sur eux. Leurs agents les engueulent, ils se font pourrir par leurs neveux woke lors des dîners de famille, des directeurs de théâtre, des producteurs, des diffuseurs, des réalisateurs menacent à mots couverts. Ils doivent lâcher l’ennemi du Parti sous peine d’être purgé avec lui. Certains, honteux de leur propre reculade, se retirent sur la pointe des pieds, parfois après avoir adressé en privé à Ezziadi un signe amical – je suis désolé mais je n’ai pas le choix. Jacques Weber pleurniche, écrivant curieusement que sa signature était un  " autre viol  " – son respect de la présomption d’innocence aura duré deux semaines. D’autres en rajoutent dans l’adoration de la Révolution, braillent comme des pourceaux, jurant qu’ils ont été trahis, manipulés, envoutés par un petit comploteur d’extrême droite. Puisque Le Monde le dit, il ne leur vient même pas à l’esprit de se poser une question. Comme me l’écrit Jonathan Siksou, " si Ariane Chemin ou BFM avait dit que Yannis était une table à roulettes ou un pélican, tout le monde le croirait ". Ils ont signé parce qu’ils croyaient que le vent avait tourné. Ils se replacent naturellement dans le sens du vent.



Le plus inquiétant est que la machine à détruire s’en prenne à un jeune homme qui n’a aucun pouvoir, sinon celui de son grand charme et du plaisir que ses amis prennent à sa compagnie. Contrairement aux consœurs qui peuvent encore briser des carrières et réduire des hommes au chômage sur la seule foi d’accusations (les femmes ne mentent jamais), Yannis Ezziadi ne peut nuire à personne. Il a effectivement monté son attentat contre la bienséance avec sa seule force de conviction. Il s’est pendu au téléphone, d’abord avec les amis, puis les amis d’amis, chacun des signataires a donné ses contacts, certains, dit « oui » puis « non » en fonction de leurs dîners de la veille.



Il n’est guère étonnant que ce dandy fantastiquement drôle qui peut pleurer de bonheur en écoutant un opéra ou en regardant une corrida enrage les vestales fanatiques de la religion des femmes et tous ceux qui, terrifiés, psalmodient derrière elles. Yannis Ezziadi possède quelque chose que ces esprits policiers haïssent parce qu’ils y ont renoncé. Cela s’appelle la liberté.



Epilogue. Le Parti a toujours raison.



Les tricoteuses féministes ont réduit au silence tous ceux qui auraient pu, qui auraient dû, se lever contre ce procès de Moscou. Beaucoup se taisent par peur d’être à leur tour soupçonnés, donc condamnés. On peut le comprendre mais ils ont tort. Pour peu qu’ils aient une sexualité vaguement débridée (quoique parfaitement légale), ils finiront, eux aussi, par être arrêtés un matin, même sans avoir jamais rien fait. Si toutes les stars de la tribune Depardieu avaient tenu bon et adressé un grand bras d’honneur aux maitres-chanteurs, le rapport de forces aurait changé. Un peu de courage ne nuit pas.



Oui, il y a des raisons d’avoir peur. L’inquisition a gagné une bataille. Si demain, plus personne n’ose sortir des clous de la bienséance, si nous acceptons docilement que Polanski, Depardieu et tant d’autres soient brûlés en place publique, que leurs œuvres soient bannies des écrans et des mémoires, elle règnera sur nos esprits. Quand on a peur de dire ce qu’on pense, on finit par avoir peur de penser.



[1] Des deux sexes mais le féminin pour tout le monde est ici parfaitement justifié

Auteur: Lévy Elisabeth

Info: Causeur, 4 janvier 2024

[ pouvoir sémantique ] [ Gaule ] [ parisianisme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel