Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2042
Temps de recherche: 0.0472s

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0

métadonnées à valeur ajoutée MVA

"Ils profitent de notre pauvreté" : derrière le boom des intelligences artificielles génératives, le travail caché des petites mains de l'IA 

(Photo : 
Une masse d'hommes et de femmes invisibles, partout dans le monde, analysent des quantités colossales de données pour améliorer, caratériser et contextualiser les intelligences artificielles. )

La création d'algorithmes tels que ChatGPT ou Midjourney nécessite des quantités colossales de données, analysées par des humains. Des "annotateurs" indispensables mais souvent précaires, faiblement rémunérés et maintenus dans l'ombre.

"Des descriptions graphiques de viol, d'inceste, de nécrophilie... C'était ça tous les jours."  En 2021, Mophat Okinyi doit relire chaque jour plusieurs centaines de textes fournis à l'entreprise de traitement de données Sama par un client inconnu, pour entraîner un modèle d'intelligence artificielle (IA). L'objectif : préciser au logiciel ce qui pose problème dans ces textes, pour qu'il ne le reproduise pas.

Un travail rémunéré 21 000 shillings kenyans par mois (environ 150 euros) pour les employés du bas de l'échelle dont Mophat contrôlait l'activité. Cela a laissé chez lui des traces à vie. "Encore aujourd'hui, ça affecte mes relations avec ma famille, mes proches", explique l'analyste qualité kenyan. La mission qu'il décrit rappelle l'horreur à laquelle sont souvent confrontés les modérateurs des réseaux sociaux et répondait en fait, comme il le découvrira plus tard, à une commande de la start-up à la pointe de l'IA à l'origine de ChatGPT : OpenAI.

Le cas de Mophat Okinyi, extrême sous certains aspects, n'est pas non plus un exemple isolé, car derrière les grands discours de révolution technique se cache une masse de travailleurs invisibles dont les rangs se comptent en centaines de millions, selon des estimations. "On n'est pas du tout en train de créer des programmes qui se passent de l'humain, résume Antonio Casilli, professeur à l'Institut polytechnique de Paris. L'IA demande une quantité de travail humain énorme et absolument indispensable, dans toute la chaîne de production".

La majorité de cette masse humaine est très loin des grands patrons ou des ingénieurs renommés. Elle est constituée d'une armada de travailleurs anonymes éclatée à travers le monde, du Venezuela à Madagascar en passant par des camps de réfugiés au Liban et des prisons finlandaises. Des petites mains qui construisent le futur clic après clic, souvent dans un secret et une précarité bien gardés.

Cliquer encore et encore

Le prix de cette modernité ? Aux Philippines, entre 1,50 et 3 dollars par "tâche". C'est ce que la plateforme de travailleurs indépendants Remotasks verse en moyenne à Eduardo* pour placer, clic par clic, pixel par pixel, les contours qui délimitent sur une image un panneau de signalisation. Puis un véhicule. Puis un buisson. Une "tâche" qui lui prend en général une heure ou moins et qu'il répète inlassablement, huit heures par jour, six jours par semaine. Ces images serviront ensuite à entraîner des algorithmes d'analyse vidéo, par exemple pour les voitures autonomes ou la surveillance algorithmique. "C'est un travail intéressant", assure à franceinfo le jeune Philippin, qui travaille sur la plateforme depuis un peu plus de trois ans. Tout le monde ne sera pas du même avis, mais sans lui, l'appareil photo de votre smartphone aurait beaucoup de mal à identifier un visage, et la conduite semi-autonome de Tesla serait encore un rêve de science-fiction. Et vous-même y avez déjà contribué.

Que ce soit en laissant un "j'aime" sur Facebook ou en identifiant les images contenant une voiture dans un test captcha, vos retours participent à entraîner des algorithmes gratuitement depuis des années. Mais pour créer les IA qui ont bluffé le monde ces derniers mois, comme ChatGPT ou Midjourney, il faut des milliards d'exemples. Des données qui doivent souvent être "annotées", autrement dit accompagnées de commentaires, pour que la machine reproduise les catégories d'analyse de l'humain : faire comprendre que "ce tas de pixels est un enfant", que "cette phrase est fausse" ou que "cet élément évoque des comportements illégaux et ne doit pas être reproduit".

Et l'entraînement ne s'arrête jamais. "C'est un peu comme des athlètes, compare Antonio Casilli. Il faut constamment les entraîner, les adapter, les vérifier". Il s'agit d'évaluer les réponses, en soumettant aux IA des exemples toujours plus précis ou adaptés au nouveau contexte culturel. Autant de tâches qu'il est actuellement impossible d'automatiser.

"Ce n'est pas suffisant, mais c'est déjà quelque chose"

Astro* est l'un de ces nouveaux "entraîneurs d'IA". L'entrepreneur originaire de Tanzanie, qui a récemment terminé ses études de linguistique en France, réalise des tâches en indépendant à temps partiel via la plateforme Appen. "Il faut parfois isoler un visage dans une photo, dire si une image devrait apparaître dans la rubrique Souvenirs de Google Photos, si un texte est factuel ou non, créer des questions/réponses de culture générale...", explique-t-il à franceinfo. Il doit pour cela suivre des règles souvent très détaillées ("Cinquante pages à apprendre par cœur !"), au point d'en devenir parfois obscures. A la clé : 16 dollars de l'heure sur ses projets actuels. "Plus tu travailles, plus tu gagnes", explique l'indépendant. Mais encore faut-il être sélectionné pour participer au projet.

A l'autre bout du spectre, des entreprises embauchent des annotateurs en interne, notamment pour des tâches qui nécessitent une expertise précise. Mais pour nombre d'entre elles, la solution la plus rentable est souvent la sous-traitance : à des entreprises dans d'autres pays qui embauchent des annotateurs localement, comme Sama, ou encore à des plateformes comme Remotasks, Appen ou Toloka, qui transfèrent les missions à des travailleurs indépendants payés à la "micro-tâche".

"Ces travailleurs sont souvent recrutés dans des pays à faibles revenus, et géopolitiquement instables." Antonio Casilli, professeur à l'Institut polytechnique de Paris

A ces critères, Antonio Casilli ajoute des taux d'éducation et d'équipement informatique importants, l'existence d'une industrie de centres d'appels ou des relations fortes avec une ancienne puissance coloniale. Plusieurs noms de pays reviennent souvent : les Philippines, Madagascar, le Kenya, le Venezuela, le Pakistan…

Dans ces pays, un tel travail représente souvent un filet de sécurité précieux. "Ce n'est pas une source de travail fixe ou suffisante, mais c'est au moins quelque chose, résume Maria*. La crise économique au Venezuela a forcé beaucoup d'entre nous à quitter le marché du travail", raconte à franceinfo l'ingénieure industrielle, qui s'est lancée sur Remotasks à la faveur du confinement, en 2020. Après avoir suivi une formation, elle travaille aujourd'hui trois jours par semaine sur la plateforme, à raison de 10 heures par jour.

Pour quel salaire ? "Les tâches de catégorisation données par Remotasks au Venezuela peuvent prendre seulement quelques minutes et être payées 11 centimes de dollar, détaille Maria. D'autres beaucoup plus complexes peuvent durer huit heures ou plus, comme l'annotation de vidéos ou de données lidar, et être payées 10 dollars." Mais tout dépend du pays et de la difficulté de la tâche. Un "eldorado" relatif qui attire, y compris parfois des mineurs qui mentent sur leur âge pour rejoindre ces plateformes de micro-tâches, raconte le site spécialisé Wired. 

Précarité et dépendance

Mais ces espoirs ne suffisent pas à en faire un emploi de rêve. Même si une tâche peut être payée correctement par rapport au marché local, les travailleurs du clic déplorent souvent la différence de traitements entre les pays. "Les entreprises profitent de notre pauvreté", estime Andry*, annotateur à Madagascar, pour qui "un agent en Inde ou au Maroc sera mieux payé que nous". Le mode de calcul des rémunérations n'est jamais précisément expliqué.

"Il y a clairement une forme de néo-colonialisme."

Antonio Casilli, professeur à l'Institut polytechnique de Paris

Pour gagner des sommes correctes, les indépendants doivent être disponibles à toute heure du jour et de la nuit et s'adapter à des projets aux durées variables. "Sur Appen, les tâches arrivent à l'heure américaine, donc vers 21 heures en France", explique par exemple Astro*. "Sur une autre plateforme, j'ai reçu une tâche vendredi vers 19 heures, j'ai travaillé 45 heures sur le week-end, j'ai gagné 1 200 euros", résume Astro, qui dit apprécier le travail de nuit. 

Ce que certains voient comme une "opportunité professionnelle" peut aussi se transformer en piège. En Chine, des établissements promettent à leurs étudiants une formation en "IA" ou en "Big data", mais les forcent à annoter des images toute la journée pour un salaire inférieur au minimum légal, raconte le média Rest of World. Cette pratique n'est pas spécifique à la Chine, assure Antonio Casilli, qui cite également l'exemple de Madagascar.

"L'IA ne peut pas être éthique si elle est entraînée de façon immorale"

A qui profite ce travail souvent ingrat, parfois à la frontière de l'éthique ? Difficile de le savoir : l'industrie baigne dans un épais voile de secret, et comme dans le cas de Mophat Okinyi, les annotateurs indépendants savent rarement à qui sont destinées les données qu'ils traitent. "Je sais que le client est au Japon, mais c'est tout. On ne nous a rien dit sur eux", note Eduardo* à propos d'une de ses missions d'annotation, fournie par Remotasks aux Philippines.

"Les entreprises d'IA expliquent que si elles étaient pleinement transparentes sur leurs besoins en données, cela pourrait donner des indices sur leurs projets en cours et influencer les réponses des contributeurs", résume Antonio Casilli d'un ton sceptique. "Elles veulent échapper à leurs responsabilités", assène Mophat Okinyi, qui ne savait pas que son travail servirait à OpenAI avant la fin anticipée du contrat, à la demande de Sama, en mars 2022. 

"Si les annotateurs savaient qu'ils travaillent pour une entreprise qui génère des centaines de millions de dollars comme OpenAI, ils n'accepteraient pas des salaires si bas." Mophat Okinyi, ex-analyste qualité chez Sama

Ce travail peut-il être organisé de manière à satisfaire tout le monde, géants de la tech comme travailleurs du clic ? "Il faut plus de transparence, les entreprises basées à San Francisco doivent prendre leurs responsabilités", réclame Mophat Okinyi. Il s'est associé à 150 travailleurs du secteur de l'annotation et de la modération des plateformes pour créer l'Union des modérateurs de contenus du Kenya, qui devrait être autorisée "dans les deux mois", et a cofondé l'ONG Techworker Community Africa pour militer en faveur de meilleurs pratiques. "L'IA ne peut pas être éthique si elle est entraînée de façon immorale, en exploitant des gens en difficulté économique et sur des données volées", assène-t-il.

"Beaucoup de gens ne savent pas qu'il y a de l'humain derrière l'IA. Il faudrait que ce soit plus connu, et mieux payé." Astro, annotateur de données

Pour Antonio Casilli, il faut commencer par oublier l'idée que l'IA est seulement une prouesse d'ingénieurs ou d'entrepreneurs. " Nous sommes tous en quelque sorte les producteurs de ces IA, parce que ce sont nos données qui servent à les entraîner, mais nous ne sommes pas reconnus comme tels. Tant qu'on continuera à penser que l'IA est seulement l'affaire de Sam Altman, on aura un problème."

* Les prénoms suivis d'un astérisque ont été modifiés.

Auteur: Internet

Info: Francetvinfo.fr - Luc Chagnon, 9 avril 2024

[ texte-image ] [ homme-machine ] [ données intelligentes ] [ enrichies ] [ nord-sud ] [ domination économique ] [ data augmenté ] [ bases sémantiques ] [ post-colonialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

affrontement racial

J'ai juste eu le temps de percevoir un rai brutal de lumière, un bruit de rires bizarres, une espèce d'exclamation rauque. Je suis devant la vitre, médusé. Des rideaux dissimulent tout l'intérieur, mais laissent passer une lueur assez forte. Je distingue contre la porte, à droite, un écriteau de bois : "A la ville d'Oran, café-hôtel. Chambres au mois et à la journée." Un bouge à sidis. Elle est là-dedans. Je suis interdit, épouvanté. Mais ma main est déjà sur la poignée. Ce qui m'a poussé (je crois pouvoir le dire, maintenant, après coup) c'est un dernier sentiment d'incrédulité, le refus d'admettre qu'une telle chose soit possible. J'ouvre la porte avec décision. Je fais deux pas. C'est bien un bistrot à sidis, pareil du reste à tous les bistrots de faubourg, assez exigu, éclairé très crûment. Mes yeux vont aussitôt à la petite. Elle est bien là, elle se tourne vers moi. Tout le monde me regarde. Ce sont des Bicots. Je vois des gueules bistrées, des tignasses crépues, des nez en bec d'aigle. Ils sont presque tous debout, autour du zinc qui reluit, ils doivent être sept ou huit. J'en repère deux, trois, à chapeaux mous, complets prétentieux ; un autre, en noir, de mine assez noble, peut-être. Au bout du groupe, il y a un gros type assis d'une trentaine d'années, frisottant, le mieux habillé, en bleu marine. J'aperçois un képi de sous-officier de tirailleurs, et dessous une tête maigre de Sarrasin, belle, ma foi ! Je vois aussi une seconde fille, près du type en bleu, un peu plus grande que l'autre, vingt-quatre ou vingt-cinq ans, mince, bien faite, semble t-il, mise avec simplicité, sans mauvais goût. C'est sur elle peut-être que mon regard s'arrête avec le plus de stupeur. Elle est d'une décence de silhouette invraisemblable dans un tel lieu. Et avec cela, des mèches de cheveux désordonnées, les pupilles agrandies et égarées, sa blouse claire dépoitraillée sur le creux de deux seins palpitants.

- Qu'y c'qu'y c'est ?

Un affreux asticot, debout, derrière le zinc, m'interpelle aigrement. Le tenancier sans doute.

J'articule d'une voix aussi naturelle que possible :

- Je désirerais boire un verre.

J'ai les yeux vissés sur la petite. C'est pourtant bien elle, son chapeau, ses boucles, sa petite jupe plissée, ses yeux clairs et rieurs. Je distingue vaguement une autre salle, au fond, plus grande, avec des festons de bois découpés à la morisque.

L'asticot a demandé je ne sais quoi, en arabe, à un des macaques. Il aboie, à mon adresse :

- Pas di verr. Ci fermé ici.

Je vois sur moi les yeux féroces et perçants de tous ces coquins. Je suis sans armes, dans ce coupe-gorge. Je me tourne d'instinct vers l'individu en bleu, le plus civilisé, apparemment, de la bande. C'est un Levantin de je ne sais quel Levant, déjà empâté, très infatué. Ce pourrait être un de ces "étudiants" qu'on voit au quartier autour des restaurants orientaux. Etudiant, barbeau, trafiquant de je ne sais quoi, le tout à la fois, sans doute. Il y a des raies rosâtres, trop larges, sur son complet bien coupé. Il s'est levé nonchalamment, il me toise avec une mine supérieure. Il laisse tomber trois ou quatre mots d'arabe qui font éclater tous les macaques d'un rire énorme. je vois ces gueules de pirates fendues, leurs grandes dents jaunes. Ils se foutent de moi devant la petite. Je dois pâlir brusquement : la colère, en même temps que la peur, mais la colère plus forte que la peur. Je les dévisage, j'arrête mon regard sur les deux filles :

- Il me semble que ce n'est pas fermé pour tout le monde...

Un hurlement de toute la bicaillerie. Je suis en un instant encerclé. La figure du sous-off est à trois pouces de la mienne. J'enregistre machinalement qu'il a quatre rubans à sa tunique.

Il me saisit le bras :

- Allez, dehors !

La petite lève la main :

- Non ! c'est un amoureux. Il me suit depuis le boulevard des Belges.

- Suivi ? Mouche ! Poulice ! Kha Poulice...

Ils glapissent à plein gosier. Je suis happé par dix pattes terribles : "mais non de Dieu ! écoutez-moi !" J'essaie d'atteindre mon portefeuille pour brandir ma carte d'étudiant. Une main lève une bouteille, un couteau jaillit. Ils ont dû croire que j'allais sortir un feu. Ce sont eux qui m'arrachent le portefeuille. J'ai les poignets immobilisés, je m'accroche où je peux avec les ongles. Ils me traînent jusqu'à la porte, j'encaisse trois ou quatre coups de poings. Je suis précipité dans les ténèbres extérieures, mes papiers lancés sur le sol, à demi déshabillé, ma chemise déchirée. Je tremble de la tête aux pieds. Les salauds m'ont attient à la mâchoire, derrière l'oreille. Une grande bordée de leur affreux rire. La porte se referme brusquement derrière moi.

Je fais une quarantaine de mètres en flageolant. Je reprends haleine, je me rajuste et me remets un peu. Je suis encore tout tremblotant de rage et de trouille : "Je vais chercher les flics !" Je voudrais me ruer avec une troupe en armes à l'assaut de cet effroyable repaire... Mais depuis quand ai-je recours aux flics ? D'ailleurs, que leur dirais-je ? Je m'en tire en somme à bon compte. Tout seul parmi parmi ces sauvages, aux poches pleines de rasoirs, de surins, de revolvers. Ma carte les aura rassurés ! Ils m'ont évacué par mépris. Toute récidive de ma part serait folle. Au reste, du coin de la place où je me suis embusqué, je vois l'asticot ouvrir la porte, accrocher un volet de bois, rentrer par-dessous. Le bouge est bouclée, barricadé. Je n'ai plus rien à faire ici.

Mais la petite est derrière cette porte, derrière ces fenêtres. Il y a cinq fenêtres au moins qui sont éclairées, aux deux étages plus voilées que celles du bas, tout à fait louches. Quinze ans. Cette petite perfection. Et elle traverse tout Lyon pour venir se faire mettre, pour venir se faire bitter dans cet immonde claque... Le petit ange aux cils innocents... La petite gaupe, oui ! ... Gaupette : voilà son nom.

Ses parents sont sortis, pour toute la nuit, peut-être. Elle a couru chez elle pour s'en assurer, se donner l'alibi de les embrasser. Ah ! sur le chapitre de la rouerie... Et puis elle s'envole ; ça la tient. Et moi qui l'imaginais déjà en tournée de charité ! Toujours conjecturer le vice plutôt que la vertu. Mais à ce point-là ! Quel roman noir, quel tréfonds ! mais comment expliquer le début ? Dans quelles pattes a-t-elle pu tomber ? Y revenir toute seule ! Une entremise de cette autre fille ?... Celle-là aussi, quelle apparition ! Ce tailleur de chaste et modeste petite bourgeoise. Et ces seins affolés ! Elle venait déjà de se faire branler en attendant l'autre ? Sa moule toute ouverte, pendant qu'elle me regardait, du jus plein le poil, jusqu'aux cuisses...

Mais elles sont là-dedans toutes les deux. Comment parvenir à penser ça ? Lequel de ces singes, avec Gaupette ? L'espèce d'étudiant ? Mais c'était lui, quand je suis entré, qui avait l'air de tenir l'autre fille.

La bagarre m'a fait débander un moment. Mais mes images, mes convoitises ont été trop violentes, à la fin de cette poursuite, dans ces rues noires. Je suis repris par cette excitation furibonde. Je ne peux plus m'en aller. L'autre fille a amené Gaupette. Elle l'a sans doute branlée, gougnottée avant. Le gros métèque se les farcit toutes les deux. Il a déjà du déculotter Gaupette. Ses pattes sur la petite jupe plissée, la petite culotte blanche, chaude, les deux cuisses roses, déjà femelles, le petit derrière. Le petit con doré. Le métèque l'enfile, pendant que l'autre fille s'astique, ou qu'un des sidis la tronche, le rempilé peut-être sur Gaupette. Ce n'est pas une invention répugnante de ma cervelle, c'est la vérité exacte. Ces bougres en rut perpétuel, montés comme des ânes. Son con de petite fille avec ces manches-là dedans ! C'est horrible, c'est ignoble. Et pourtant plus c'est ignoble et plus ça me chauffe, m'incendie. On comprend que dans de telles passes, s'il n'y avait pas les mécanismes et les habitudes de la civilisation, on se mettrait à bramer, à hurler au con. Je suis un moment sur le point de me taper un rassis, dans le noir, contre le mur d'une des baraques aveugles.

... Je suis là depuis plus d'une heure, sur cette espèce de carrefour d'assassinat, totalement sourd et désert, dans cette nuit crapuleuse. La petite Gaupette est en train de forniquer, de s'en faire mettre plein le vagin. Elle est sous zob !

Mais je peux l'avoir, moi aussi, je peux me l'envoyer. Elle ne demande que ça ! Elle ne pensait qu'à ça, pendant toute ma chasse, dans le tramway. Et je n'osais pas lui murmurer un "bonsoir"! Elle pensait que j'allais être de la partouze. Elle m'y emmenait. Ça lui allait bien ! elle n'a probablement jamais fait ça de sa vie avec un garçon européen, ça devait l'exciter. Elle a essayé de me tirer du pétrin. Si elle n'avait pas fait cette gaffe : "Il me suit depuis les Brotteaux! " Elle aurait seulement dit "je le connais, c'est un camarade !", je restais. Elle avait envie de moi. En ce moment, je la baiserais, je me frotterais à son ventre, à son poil, à ses fesses, j'aurais ma queue entre ses cuisses.

La porte s'ouvre derrière le volet de bois. Un couple sort, en se baissant. J'aperçois une grosse garce en cheveux, avec un grand bougre. Je m'approche, je ne sais pourquoi, comme si je pouvais leur demander de me réintroduire. Je vois les traits de l'homme, aussi barbares que ceux des sidis. Mais celui-là paraît avoir l'accent espagnol. La femme, elle, est Lyonnaise. Je suis à quatre ou cinq pas d'eux. L'"Espagnol" se retourne, me voit, i la l'air encore plus féroce que les Bics. Je ralentis, je les laisse filer. A la lueur de l'unique bec de gaz du coin, je devine le monumental pétard sur lequel chaloupe la pouffiasse, un gros cul qui vient de s'évaser, de s'enfoutrer, pendant que derrière la cloison, Gaupette...

Oh ! je la veux moi aussi ! Pourquoi les Bics m'ont-ils chassé ? Je ne leur voulais aucun mal. Je suis un salopard, comme eux. Si j'essayais d'entrer de nouveau, de leur expliquer ? Je vais frapper au volet, quelques petits coups, puis plus fort. Il semble que le bistrot soit vide. On ne répond pas, ça ne bouge pas. Je n’ose pas appeler.

Je commence à avoir froid. Mais je n’arrive pas à quitter la place. Gaupette ne couchera tout de même pas là. Si les deux filles sortent seules, je les aborde au coin de la rue. J’attendrai leur sortie, le temps qu’il faut.

Mais personne ne sort plus de ce borgnard. Tout est éteint en bas ; aux étages, il n’y a plus que deux fenêtres vaguement éclairées. Je n’y comprends plus rien. Je m’avise enfin, en contournant les bicoques voisines, d’aller jeter un coup d’œil cinq ou six mètres de la bâtisses, fermant sans doute une sorte de cour. Il y a une porte dans ce mur. En face, une ruelle, toute droite, bordée d’entrepôts noirs, conduit à une espèce de boulevard mieux éclairé que le reste de ce lugubre quartier. Elles ont pu s’en aller par là. Ce doit être la sortie des initiés. A moins qu’elles ne couchent ici. Serait-ce plus incroyable que le reste.

Je suis là depuis près de trois heures, et il en est bientôt onze. Je suis transi, écœuré, furieux. Je n’ai plus qu’à rentrer chez moi. Mais je me perds dans ces "chemins", ces rues inconnues, cet effrayant faubourg où il semble que je sois seul vivant. J’aperçois enfin un taxi. Tant pis pour la dépense.

Auteur: Rebatet Lucien

Info: les deux étendards (1952, 1312 p., Gallimard) p. 722-727

[ vulgarité ] [ laideur ] [ hostilité étrangère ] [ agressivité allogène ] [ fantasme ] [ sexe ] [ baston ] [ tabassage ]

 
Commentaires: 1

homme-animal

Les insectes et autres animaux ont une conscience, déclarent les experts

Un groupe d'éminents biologistes et philosophes a annoncé un nouveau consensus : il existe " une possibilité réaliste " que les insectes, les poulpes, les crustacés, les poissons et d'autres animaux négligés fassent l'expérience de la conscience.  

En 2022, des chercheurs du Bee Sensory and Behavioral Ecology Lab de l’Université Queen Mary de Londres ont observé des bourdons faire quelque chose de remarquable : ces petites créatures floues se livraient à une activité qui ne pouvait être décrite que comme un jeu. Une fois face à de minuscules boules de bois, les abeilles les poussent et les font tourner. Ce comportement n’avait aucun lien évident avec l’accouplement ou la survie, et n’était pas non plus récompensé par les scientifiques. Apparemment, c'était juste pour s'amuser.

L’étude sur les abeilles joueuses fait partie d’un ensemble de recherches citées aujourd’hui par un groupe d’éminents spécialistes de l’esprit animal, étayant une nouvelle déclaration qui étend le soutien scientifique à la conscience à un plus grand nombre d’animaux que ce qui avait été formellement reconnu auparavant. Depuis des décennies, les scientifiques s’accordent largement sur le fait que les animaux semblables à nous – les grands singes, par exemple – ont une expérience consciente, même si leur conscience diffère de la nôtre. Ces dernières années, cependant, les chercheurs ont commencé à reconnaître que la conscience pourrait également être répandue chez des animaux très différents de nous, notamment des invertébrés dotés d’un système nerveux complètement différent et bien plus simple.

La nouvelle déclaration, signée par des biologistes et des philosophes, adhère formellement à ce point de vue. On y lit notamment : " Les preuves empiriques indiquent au moins une possibilité réaliste d’expérience consciente chez tous les vertébrés (y compris tous les reptiles, amphibiens et poissons) et de nombreux invertébrés (y compris, au minimum, les mollusques céphalopodes, les crustacés décapodes et les insectes). " Inspiré par les résultats de recherches récentes décrivant des comportements cognitifs complexes chez ces animaux et chez d'autres animaux, le document représente un nouveau consensus et suggère que les chercheurs ont peut-être surestimé le degré de complexité neuronale requis pour la conscience.

La Déclaration de New York sur la conscience animale en quatre paragraphes a été dévoilée aujourd'hui, le 19 avril, lors d'une conférence d'une journée intitulée " La science émergente de la conscience animale " qui s'est tenue à l'Université de New York. Menée par la philosophe et spécialiste des sciences cognitives Kristin Andrews de l'Université York en Ontario, le philosophe et spécialiste de l'environnement Jeff Sebo de l'Université de New York et le philosophe Jonathan Birch de la London School of Economics and Political Science, la déclaration a jusqu'à présent été signée par 39 chercheurs, dont les psychologues Nicola Clayton et Irene Pepperberg, les neuroscientifiques Anil Seth et Christof Koch , le zoologiste Lars Chittka et les philosophes David Chalmers et Peter Godfrey-Smith .

La déclaration se concentre sur le type de conscience le plus fondamental, connu sous le nom de conscience phénoménale. En gros, si une créature a une conscience phénoménale, alors c'est " comme quelque chose " qu'être cette créature — une idée énoncée par le philosophe Thomas Nagel dans son essai influent de 1974, " Qu'est-ce que ça fait d'être une chauve-souris ? " Même si une créature est très différente de nous, écrit Nagel, " " Un organisme a fondamentalement des états mentaux conscients qui correspondent à ce qu'est cet organisme, si et seulement si. ... Nous pouvons appeler cela le caractère subjectif de l'expérience. Si une créature est ainsi consciente, elle a la capacité d’éprouver des sentiments tels que la douleur, le plaisir ou la faim, mais pas nécessairement des états mentaux plus complexes comme la conscience de soi.

" J'espère que celà attire une plus grande attention aux problèmes de la conscience non humaine et aux défis éthiques qui accompagnent la possibilité d'expériences conscientes bien au-delà de l'humain", a écrit Seth, neuroscientifique à l'Université du Sussex, dans un e-mail. " J'espère que cela suscitera des discussions, éclairera les politiques et les pratiques en matière de bien-être animal et galvanisera la compréhension et l'appréciation du fait que nous avons beaucoup plus en commun avec d'autres animaux qu'avec des choses comme ChatGPT. "

Une prise de conscience croissante

La déclaration a commencé à prendre forme l’automne dernier, à la suite de conversations entre Sebo, Andrews et Birch. " Nous parlions tous les trois de tout ce qui s'est passé au cours des 10 ou 15 dernières années dans la science de la conscience animale", se souvient Sebo. Nous savons maintenant, par exemple, que les poulpes ressentent de la douleur et que les seiches se souviennent des détails d'événements passés spécifiques. Des études sur les poissons ont montré que les labres (Labroides dimidiatus) semblent réussir une version du " test du miroir ", qui indique un certain degré d'auto-reconnaissance, et que les poissons zèbres montrent des signes de curiosité. Dans le monde des insectes, les abeilles présentent un comportement de jeu apparent, tandis que les mouches des fruits de la drosophile ont des habitudes de sommeil distinctes influencées par leur environnement social. Pendant ce temps, les écrevisses présentent des états de type anxiété – et ces états peuvent être modifiés par des médicaments anti-anxiété.

Ces signes, ainsi que d’autres, d’états de conscience chez des animaux qui ont longtemps été considérés comme moins conscients ont excité et interpellé les biologistes, les spécialistes des sciences cognitives et les philosophes de l’esprit. "Beaucoup de gens acceptent depuis un certain temps que, par exemple, les mammifères et les oiseaux sont soit conscients, soit très susceptibles de l'être, mais moins d'attention a été accordée aux autres taxons de vertébrés et en particulier d'invertébrés", a déclaré Sebo. Lors de conversations et de réunions, les experts ont largement convenu que ces animaux devaient avoir une conscience. Cependant, ce consensus nouvellement formé n’a pas été communiqué au grand public, notamment aux autres scientifiques et décideurs politiques. Les trois chercheurs ont donc décidé de rédiger une déclaration claire et concise et de la faire circuler parmi leurs collègues pour approbation. La déclaration n’est pas censée être exhaustive mais plutôt " indiquer où nous pensons que le domaine se trouve actuellement et où il se dirige ", a déclaré Sebo.

La nouvelle déclaration met à jour les efforts les plus récents visant à établir un consensus scientifique sur la conscience animale. En 2012, des chercheurs ont publié la Déclaration de Cambridge sur la conscience, qui affirmait qu'un grand nombre d'animaux non humains, y compris, mais sans s'y limiter, les mammifères et les oiseaux, ont " la capacité de manifester des comportements intentionnels " et que " les humains ne sont pas les seuls à posséder les substrats neurologiques " qui génèrent la conscience.

La nouvelle déclaration élargit la portée de son prédécesseur et est également rédigée avec plus de soin, a écrit Seth. " Elle n'essaie pas de faire de la science par diktat, mais souligne plutôt ce que nous devrions prendre au sérieux concernant la conscience animale et l'éthique pertinente, compte tenu des preuves et des théories dont nous disposons." Il a écrit qu’il n’était " pas favorable aux avalanches de lettres ouvertes et autres ", mais qu’il était finalement " parvenu à la conclusion que cette déclaration méritait vraiment d’être soutenue ".

Godfrey-Smith, philosophe des sciences à l'Université de Sydney qui a beaucoup travaillé avec les poulpes, estime que les comportements complexes que présentent ces créatures – notamment la résolution de problèmes, l'utilisation d'outils et le comportement de jeu – ne peuvent être interprétés que comme des indicateurs de conscience. "Elles ont cet engagement attentif avec les choses, avec nous et avec de nouveaux objets qui fait qu'il est très difficile de ne pas penser qu'il se passe beaucoup de choses à l'intérieur d'elles", a-t-il déclaré. Il a noté que des articles récents portant sur la douleur et les états oniriques chez les poulpes et les seiches " vont dans la même direction… ".

Même si de nombreux animaux mentionnés dans la déclaration ont un cerveau et un système nerveux très différents de ceux des humains, les chercheurs affirment que cela ne constitue pas nécessairement un obstacle à la conscience. Par exemple, le cerveau d’une abeille ne contient qu’environ un million de neurones, contre environ 86 milliards dans le cas des humains. Mais chacun de ces neurones d’abeille peut être structurellement aussi complexe qu’un chêne. Le réseau de connexions qu’ils forment est également incroyablement dense, chaque neurone en contactant peut-être 10 000 ou 100 000 autres. Le système nerveux d’une pieuvre, en revanche, est complexe à d’autres égards. Son organisation est hautement distribuée plutôt que centralisée ; un bras coupé peut présenter de nombreux comportements de l'animal intact.

(4 photos : Des recherches récentes sur l’esprit des animaux – notamment ceux des écrevisses, des poulpes, des serpents et des poissons – suggèrent que la conscience " peut exister dans une architecture neurale qui semble complètement étrangère " à la nôtre, a déclaré Peter Godfrey-Smith.)

Le résultat, a déclaré Andrews, est que "  nous n’avons peut-être pas besoin d’autant d’équipement que nous le pensions " pour atteindre la conscience. Elle note, par exemple, que même un cortex cérébral – la couche externe du cerveau des mammifères, censée jouer un rôle dans l’attention, la perception, la mémoire et d’autres aspects clés de la conscience – n’est peut-être pas nécessaire pour une conscience phénoménale plus simple comme celle ciblée dans la déclaration.

"Il y a eu un grand débat sur la question de savoir si les poissons sont conscients, et cela était en grande partie dû au fait qu'ils n'avaient pas les structures cérébrales que nous observons chez les mammifères", a-t-elle déclaré. "Mais quand vous regardez les oiseaux, les reptiles et les amphibiens, ils ont des structures cérébrales très différentes et des pressions évolutives différentes - et pourtant certaines de ces structures cérébrales, comme nous le constatons, font le même genre de travail qu'un cortex cérébral chez l'homme. " Godfrey-Smith est d’accord, notant que des comportements révélateurs de conscience " peuvent exister dans une architecture qui semble complètement étrangère à l’architecture des vertébrés ou des humains ".

Relations conscientes

Bien que la déclaration ait des implications pour le traitement des animaux, et en particulier pour la prévention de la souffrance animale, Sebo a noté que l'accent devrait aller au-delà de la douleur. Il ne suffit pas d'empêcher les animaux en captivité de ressentir des douleurs et des inconforts corporels, a-t-il déclaré. " Nous devons également leur offrir le type d’enrichissement et d’opportunités qui leur permettent d’exprimer leurs instincts, d’explorer leur environnement, de s’engager dans les systèmes sociaux et d’être par ailleurs le genre d’agents complexes qu’ils sont. "

Mais les conséquences de l’attribution du label " conscient " à un plus grand nombre d’animaux – en particulier à des animaux dont nous n’avons pas l’habitude de prendre en compte les intérêts – ne sont pas simples. Par exemple, notre relation avec les insectes peut être " inévitablement quelque peu antagoniste ", a déclaré Godfrey-Smith. Certains ravageurs dévorent les récoltes et les moustiques peuvent être porteurs de maladies. " L'idée selon laquelle nous pourrions simplement faire la paix avec les moustiques est une pensée très différente de l'idée selon laquelle nous pourrions faire la paix avec les poissons et les poulpes", a-t-il déclaré.

De même, peu d’attention est accordée au bien-être des insectes comme la drosophile, largement utilisés dans la recherche en biologie. " Dans la recherche, nous pensons au bien-être du bétail et des souris, mais nous ne pensons jamais au bien-être des insectes ", a déclaré Matilda Gibbons , qui étudie les bases neuronales de la conscience à l'Université de Pennsylvanie et a signé la déclaration.

Même si les organismes scientifiques ont créé certaines normes pour le traitement des souris de laboratoire, il n'est pas clair si la déclaration d'aujourd'hui mènera à de nouvelles normes pour le traitement des insectes. Mais les nouvelles découvertes scientifiques suscitent parfois de nouvelles politiques. La Grande-Bretagne, par exemple, a adopté une législation visant à accroître la protection des poulpes, des crabes et des homards après qu'un rapport de la London School of Economics  ait indiqué que ces animaux pouvaient ressentir de la douleur, de la détresse ou être blessés.

Bien que la déclaration ne fasse aucune mention de l’intelligence artificielle, la question d’une éventuelle conscience de l’IA préoccupe les chercheurs en conscience animale. "Il est très peu probable que les systèmes d'IA actuels soient conscients", a déclaré Sebo. Cependant, ce qu’il a appris sur l’esprit animal " me fait réfléchir et me donne envie d’aborder le sujet avec prudence et humilité ".

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Dan Falk  19 avril 2024

[ entités vivantes ] [ monades ] [ animal-végétal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

civilisation

Pour expliquer les États-Unis d'Amérique, on les a comparés, avec raison, à un creuset. L'Amérique est en effet un de ces cas où, à partir d'une matière première on ne peut plus hétérogène, a pris naissance un type d'homme dont les caractéristiques sont, dans une large mesure, uniformes et constantes. Des hommes des peuples les plus divers reçoivent donc, en s'installant en Amérique, la même empreinte. Presque toujours, après deux générations, ils perdent leurs caractéristiques originelles et reproduisent un type assez unitaire pour ce qui est de la mentalité, de la sensibilité et des modes de comportement : le type américain justement.

Mais, dans ce cas précis, des théories comme celles formulées par Frobenius et Spengler – il y a aurait une étroite relation entre les formes d'une civilisation et une sorte d' "âme" liée au milieu naturel, au "paysage" et à la population originelle – ne semblent pas pertinentes. S'il en était ainsi, en Amérique l'élément constitué par les Amérindiens, par les Peaux-Rouges, aurait dû jouer un rôle important. Les Peaux-Rouges étaient une race fière, possédant style, dignité, sensibilité et religiosité ; ce n'est pas sans raison qu'un auteur traditionaliste, F. Schuon, a parlé de la présence en eux de quelque chose "d'aquilin et de solaire". Et nous n'hésitons pas à affirmer que si leur esprit avait marqué, sous ses meilleurs aspects et sur un plan adéquat, la matière mélangée dans le "creuset américain", le niveau de la civilisation américaine aurait été probablement plus élevé. Mais, abstraction faite de la composante puritaine et protestante (qui se ressent à son tour, en raison de l'insistance fétichiste sur l'Ancien Testament, d'influences judaïsantes négatives), il semble que ce soit l'élément noir, avec son primitivisme, qui ait donné le ton à bien des traits décisifs de la mentalité américaine.

Une première chose est, à elle seule, caractéristique : quand on parle de folklore en Amérique, c'est aux Noirs qu'on pense, comme s'ils avaient été les premiers habitants du pays. Si bien qu'on traite, aux États-Unis, comme un oeuvre classique inspirée du "folklore américain", le fameux Porgy and Bess du musicien d'origine juive Gershwin, oeuvre qui ne parle que des Noirs. Cet auteur déclara d'ailleurs que, pour écrire son oeuvre, il se plongea pendant un certain temps dans l'ambiance des Noirs américains. Le phénomène représenté par la musique légère et la danse est encore plus frappant. On ne peut pas donner tort à Fitzgerald, qui a dit que, sous un de ses principaux aspects, la civilisation américaine peut être appelée une civilisation du jazz, ce qui veut dire d'une musique et d'une danse d'origine noire ou négrifiée. Dans ce domaine, des "affinités électives" très singulières ont amené l'Amérique, tout au long d'un processus de régression et de retour au primitif, à s'inspirer justement des Noirs, comme si elle n'avait pas pu trouver, dans son désir compréhensible de création de rythmes et de formes frénétiques en mesure de compenser le côté desséché de la civilisation mécanique et matérielle moderne, rien de mieux. Alors que de nombreuses sources européennes s'offraient à elle - nous avons déjà fait allusion, en une autre occasion, aux rythmes de danse de l'Europe balkanique, qui ont vraiment quelque chose de dionysiaque. Mais l'Amérique a choisi les Noirs et les rythmes afro-cubains, et la contagion, à partir d'elle, a gagné peu à peu les autres pays.

Le psychanalyste C.-G. Jung avait déjà remarqué la composante noire du psychisme américain. Certaines de ses observations méritent d'être reproduites ici : "Ce qui m'étonna beaucoup, chez les Américains, ce fut la grande influence du Noir. Influence psychologique, car je ne veux pas parler de certains mélanges de sang. Les expressions émotives de l'Américain et, en premier lieu, sa façon de rire, on peut les étudier fort bien dans les suppléments des journaux américains consacrés au society gossip. Cette façon inimitable de rire, de rire à la Roosevelt, est visible chez le Noir américain sous sa forme originelle. Cette manière caractéristique de marcher, avec les articulations relâchées ou en balançant des hanches, qu'on remarque souvent chez les Américains, vient des Noirs. La musique américaine doit aux Noirs l'essentiel de son inspiration. Les danses américaines sont des danses de Noirs. Les manifestations du sentiment religieux, les revival meetings, les holy rollers et d'autres phénomènes américains anormaux sont grandement influencés par le Noir. Le tempérament extrêmement vif en général, qui s'exprime non seulement dans un jeu comme le base ball, mais aussi, et en particulier, dans l'expression verbale – le flux continu, illimité, de bavardages, typique des journaux américains, en est un exemple remarquable –, ne provient certainement pas des ancêtres d'origine germanique, mais ressemble au chattering de village nègre. L'absence presque totale d'intimité et la vie collective qui contient tout rappellent, en Amérique, la vie primitive des cabanes ouvertes où règne une promiscuité complète entre les membres de la tribu".

Poursuivant des observations de ce genre, Jung a fini par se demander si les habitants du nouveau continent peuvent encore être considérés comme des Européens. Mais ses remarques doivent être prolongées. Cette brutalité, qui est un des traits évidents de l'Américain, on peut dire qu'elle possède une empreinte noire. D'une manière générale, le goût de la brutalité fait désormais partie de la mentalité américaine. II est exact que le sport le plus brutal, la boxe, est né en Angleterre ; mais il est tout aussi exact que c'est aux États-Unis qu'il a connu les développements les plus aberrants au point de faire l'objet d'un véritable fanatisme collectif, bien vite transmis aux autres peuples. En ce qui concerne la tendance à en venir aux mains de la façon la plus sauvage qui soit, il suffit d'ailleurs de songer à une quantité de films américains et à l'essentiel de la littérature populaire américaine, la littérature "policière" : les coups de poing y sont monnaie courante, parce qu'ils répondent évidemment aux goûts des spectateurs et des lecteurs d'outre-Atlantique, pour lesquels la brutalité semble être la marque de la vraie virilité. La nation-guide américaine a depuis longtemps relégué, plus que toute autre, parmi les ridicules antiquailles européennes, la manière de régler un différend par les voies du droit, en suivant des normes rigoureuses, sans recourir à la force brute et primitive du bras et du poing, manière qui pouvait correspondre au duel traditionnel. On ne peut que souligner l'abîme séparant ce trait de la mentalité américaine de ce que fut l'idéal de comportement du gentleman anglais, et ce, bien que les Anglais aient été une composante de la population blanche originelle des États-Unis. On peut comparer l'homme occidental moderne, qui est dans une large mesure un type humain régressif, à un crustacé : il est d'autant plus "dur" dans son comportement extérieur d'homme d'action, d'entrepreneur sans scrupules, qu'il est "mou" et inconsistant sur le plan de l'intériorité. Or, cela est éminemment vrai de l'Américain, en tant qu'il incarne le type occidental dévié jusqu'à l'extrême limite.

On rencontre ici une autre affinité avec le Noir. Un sentimentalisme fade, un pathos banal, notamment dans les relations sentimentales, rapprochent bien plus l'Américain du Noir que de l'Européen vraiment civilisé. L'observateur peut à ce sujet tirer aisément les preuves irréfutables à partir de nombreux romans américains typiques, à partir aussi des chansons, du cinéma et de la vie privée courante. Que l'érotisme de l'Américain soit aussi pandémique que techniquement primitif, c'est une chose qu'ont déplorée aussi et surtout des jeunes filles et des femmes américaines. Ce qui ramène une fois de plus aux races noires, chez lesquelles l'importance, parfois obsessionnelle, qu'ont toujours eu l'érotisme et la sexualité, s'associe, justement, à un primitivisme ; ces races, à la différence des Orientaux, du monde occidental antique et d'autres peuples encore, n'ont jamais connu un ars amatoria digne de ce nom. Les grands exploits sexuels, si vantés, des Noirs, n'ont en réalité qu'un grossier caractère quantitatif et priapique.

Un autre aspect typique du primitivisme américain concerne l'idée de "grandeur". Werner Sombart a parfaitement vu la chose en disant : they mistake bigness for greatness, phrase qu'on pourrait traduire ainsi : ils prennent la grandeur matérielle pour la vraie grandeur, pour la grandeur spirituelle. Or, ce trait n'est pas propre à tous les peuples de couleur en général. Par exemple, un Arabe de vieille race, un Peau-Rouge, un Extrême-Oriental ne se laissent pas trop impressionner par tout ce qui est grandeur de surface, matérielle, quantitative, y compris la grandeur liée aux machines, à la technique, à l'économie (abstraction faite, naturellement, des éléments déjà occidentalisés de ces peuples). Pour se laisser prendre par tout cela ; il fallait une race vraiment primitive et infantile comme la race noire. Il n'est donc pas exagéré de dire que le stupide orgueil des Américains pour la "grandeur" spectaculaire, pour les achievements de leur civilisation, se ressent lui aussi d'une disposition du psychisme nègre. On peut aussi parler d'une des bêtises que l'on entend souvent répéter, à savoir que les Américains seraient une "race jeune", avec pour corollaire tacite que c'est à eux qu'appartient l'avenir. Car un regard myope peut facilement confondre les traits d'une jeunesse effective avec ceux d'un infantilisme régressif. Du reste, il suffit de reprendre la conception traditionnelle pour que la perspective soit renversée. En dépit des apparences, les peuples récemment formés doivent être considérés comme les peuples les plus vieux et, éventuellement, comme des peuples crépusculaires, parce qu'ils sont venus en dernier justement, parce qu'ils sont encore plus éloignés des origines.

Cette manière de voir les choses trouve d'ailleurs une correspondance dans le monde des organismes vivants. Ceci explique la rencontre paradoxale des peuples présumés "jeunes" (au sens de peuples venus en dernier) avec des races vraiment primitives, toujours restées en dehors de la grande histoire ; cela explique le goût de ce qui est primitif et le retour à ce qui est primitif. Nous l'avons déjà fait remarquer à propos du choix fait par les Américains, à cause d'une affinité élective profonde, en faveur de la musique nègre et sub-tropicale ; mais le même phénomène est perceptible aussi dans d'autres domaines de la culture et de l'art. On peut se référer, par exemple, au culte assez récent de la négritude qu'avaient fondé en France des existentialistes, des intellectuels et des artistes "progressistes".

Une autre conclusion à tirer de tout cela, c'est que les Européens et les représentants de civilisations supérieures non européennes font preuve, à leur tour, de la même mentalité de primitif et de provincial lorsqu'ils admirent l'Amérique, lorsqu'ils se laissent impressionner par l'Amérique, lorsqu'ils s'américanisent avec stupidité et enthousiasme, croyant ainsi marcher au pas du progrès et témoigner d'un esprit "libre" et "ouvert". La marche du progrès concerne aussi l' "intégration" sociale et culturelle du Noir, qui se répand en Europe même et qui est favorisée, même en Italie, par une action sournoise, notamment au moyen de films importés (où Blancs et Noirs remplissent ensemble des fonctions sociales : juges, policiers, avocats, etc.) et par la télévision, avec des spectacles où danseuses et chanteuses noires sont mélangées à des blanches, afin que le grand public s'accoutume peu à peu à la promiscuité des races, perde tout reste de conscience raciale naturelle et tout sentiment de la distance. Le fanatisme collectif qu'a provoqué en Italie, lors de ses exhibitions, cette masse de chair informe et hurlante qu'est la Noire Ella Fitzgerald, est un signe aussi triste que révélateur. On peut en dire autant du fait que l'exaltation la plus délirante de la "culture" nègre, de la négritude, soit due à un Allemand, Janheinz Jahn, dont le livre Muntu, publié par une vieille et respectable maison d'édition allemande (donc dans le pays du racisme aryen !), a été immédiatement traduit et diffusé par un éditeur italien de gauche bien connu, Einaudi. Dans cet ouvrage invraisemblable, l'auteur en arrive à soutenir que la "culture" nègre serait un excellent moyen de relever et de régénérer la "civilisation matérielle" occidentale... Au sujet des affinités électives américaines, nous ferons allusion à un dernier point. On peut dire qu'il y a eu aux États-Unis d'Amérique quelque chose de valable, vraiment prometteur : le phénomène de cette jeune génération qui prônait une sorte d'existentialisme révolté, anarchiste, anticonformiste et nihiliste ; ce qu'on a appelé la beat generation, les beats, les hipsters et compagnie, sur lesquels nous reviendrons d'ailleurs. Or, même dans ce cas, la fraternisation avec les Noirs, l'instauration d'une véritable religion du jazz nègre, la promiscuité affichée, y compris sur le plan sexuel, avec les Noirs, ont fait partie des caractéristiques de ce mouvement.

Dans un essai célèbre, Norman Mailer, qui a été un des principaux représentants de la beat generation, avait même établi une sorte d'équivalence entre le Noir et le type humain de la génération en question ; il avait carrément appelé ce dernier the white Negro, le "nègre blanc". A ce propos, Fausto Gianfranceschi a écrit très justement : "En raison de la fascination exercée par la 'culture' nègre, sous la forme décrite par Mailer, on ne peut s'empêcher d'établir immédiatement un parallèle – irrespectueux – avec l'impression que fit le message de Friedrich Nietzsche au début du XIXe siècle. Le point de départ, c'est le même désir de rompre tout ce qui est fossilisé et conformiste par une prise de conscience brutale du donné vital et existentiel ; mais quelle confusion lorsqu'on met le Noir, comme on l'a fait de nos jours, avec le jazz et l'orgasme sexuel, sur le piédestal du "surhomme" !

Pour la bonne bouche nous terminerons par un témoignage significatif dû à un écrivain américain particulièrement intéressant, James Burnham (dans "The struggle for the world") : "On trouve dans la vie américaine les signes d'une indiscutable brutalité. Ces signes se révèlent aussi bien dans le lynchage et le gangstérisme que dans la prétention et la goujaterie des soldats et des touristes à l'étranger. Le provincialisme de la mentalité américaine s'exprime par un manque de compréhension pour tout autre peuple et toute autre culture. Il y a, chez de nombreux Américains, un mépris de rustre pour les idées, les traditions, l'histoire, un mépris lié à l'orgueil pour les petites choses dues au progrès matériel. Qui, après avoir écouté une radio américaine, ne sentira pas un frisson à la pensée que le prix de la survie serait l'américanisation du monde ?"

Ce qui, malheureusement, est déjà en train de se produire sous nos yeux.

Auteur: Evola Julius

Info: L'arc et la massue (1971, 275p.)

[ racialisme ] [ melting-pot ] [ nouveau monde ] [ désintégration ] [ ethno-différentialisme ]

 
Commentaires: 2