Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 2552
Temps de recherche: 0.0639s

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

USA

Le paysage médiatique en Amérique est dominé par les "fausses nouvelles". Depuis des décennies. Ces fausses nouvelles n’émanent pas du Kremlin. C’est une industrie de plusieurs milliards de dollars par an, qui est habilement conçue et gérée par des agences de relations publiques, des publicistes et des services de communications au nom d’individus précis, du gouvernement, et des sociétés pour manipuler l’opinion publique.
Cette industrie de la propagande met en scène des pseudo-événements pour façonner notre perception de la réalité. Le public est tellement inondé par ces mensonges, livrés 24 heures par jour à la radio, à la télévision et dans la presse écrite, que les téléspectateurs et les lecteurs ne peuvent plus distinguer entre la vérité et la fiction.
Donald Trump et les théoriciens racistes-conspirateurs, les généraux et les milliardaires autour de lui, ont hérité et exploité cette situation, tout comme ils ont hérité et exploiteront la destruction des libertés civiles et l’effondrement des institutions démocratiques. Trump n’a pas créé ce vide politique, moral et intellectuel. C’est l’inverse. Ce vide a créé un monde où les faits changent avec l’opinion, où les célébrités ont d’énormes mégaphones tout simplement parce que ce sont des célébrités, où l’information doit être divertissante et où nous avons la possibilité de croire ce que nous voulons, indépendamment de la vérité. Un démagogue comme Trump est le résultat que vous obtenez quand la culture et la presse tournent au burlesque.
Les journalistes ont depuis longtemps renoncé à décrire un monde objectif ou à donner la parole aux hommes et aux femmes ordinaires. Ils ont été conditionnés pour répondre aux demandes des entreprises. Les personnalités de l’actualité, qui gagnent souvent des millions de dollars par an, deviennent courtisanes. Elles vendent des commérages. Elles favorisent le consumérisme et l’impérialisme. Elles bavardent sans cesse au sujet des sondages, des stratégies, de la présentation et des tactiques ou jouent à des jeux de devinettes sur les rendez-vous présidentiels à venir. Elles comblent l’absence de nouvelles avec des histoires triviales, conduites émotionnellement, qui nous font sentir bien dans notre peau. Ils sont incapables de produire de véritables reportages. Elles s’appuient sur des propagandistes professionnels pour encadrer toute discussion et débat.
Il y a des journalistes établis qui ont passé toute leur carrière à reformuler des communiqués de presse ou à participer à des séances d’information officielles ou à des conférences de presse – j’en connaissais plusieurs lorsque j’étais au New York Times. Ils travaillent comme sténographes des puissants. Beaucoup de ces reporters sont très estimés dans la profession.
Les entreprises qui possèdent des médias, contrairement aux anciens empires de presse, voient les nouvelles comme simplement une autre source de revenus publicitaires. Ces revenus concourent au bénéfice de l’entreprise. Lorsque le secteur des nouvelles ne produit pas ce qui est considéré comme un profit suffisant, la hache tombe. Le contenu n’est pas pertinent. Les courtisans de la presse, redevables à leurs seigneurs dans l’entreprise, s’accrochent férocement à des places privilégiées et bien rémunérées. Parce qu’ils endossent servilement les intérêts du pouvoir des entreprises, ils sont haïs par les travailleurs américains, qu’ils ont rendus invisibles. Ils méritent la haine qu’ils suscitent.
La plupart des rubriques d’un journal – "style de vie", voyages, immobilier et mode, entre autres – sont conçues pour s’adresser au 1%. Ce sont des appâts pour la publicité. Seulement environ 15% de la surface rédactionnelle de n’importe quel journal est consacrée aux nouvelles. Si vous supprimez de ces 15% le contenu fourni par l’industrie des relations publiques à l’intérieur et à l’extérieur du gouvernement, le pourcentage de nouvelles tombe à un seul chiffre. Pour les nouvelles diffusées par les ondes et le câble, le pourcentage des nouvelles véritables, rapportées de façon indépendante, serait proche de zéro.
L’objet des fausses nouvelles est de façonner l’opinion publique, en créant des personnalités fantoches et des réponses émotionnelles qui submergent la réalité. Hillary Clinton, contrairement à la façon dont elle a souvent été dépeinte lors de la récente campagne présidentielle, n’a jamais combattu dans l’intérêt des femmes et des enfants – elle avait défendu la destruction d’un système d’aide sociale dans lequel 70% des bénéficiaires étaient des enfants. Elle est un outil des grandes banques, de Wall Street et de l’industrie de guerre. De pseudo-événements ont été créés pour maintenir la fiction de son souci pour les femmes et les enfants, de sa compassion et de ses liens avec les gens ordinaires. Trump n’a jamais été un grand homme d’affaires. Il a une longue histoire de faillites et de pratiques commerciales obscures. Mais il a joué le rôle fictif d’un titan de la finance dans son émission de télé-réalité, L’Apprenti.
"Les pseudo-événements qui inondent notre conscience ne sont ni vrais ni faux, dans le vieux sens familier", écrit Daniel Boorstin dans son livre L’image : un guide des pseudo-événements en Amérique : "Les mêmes progrès qui les ont rendues possibles, ont aussi rendu les images plus réalistes, plus attirantes, plus impressionnantes et plus convaincantes que la réalité elle-même, bien que planifiées, artificielles ou déformées."
La réalité est consciemment prémâchée en récits faciles à digérer. Ceux qui sont impliqués dans les relations publiques, les campagnes politiques et le gouvernement ressassent implacablement le message. Ils ne s’écartent pas du simple slogan criard ou du cliché qu’ils sont invités à répéter. C’est une espèce de conversation continue avec des bébés.
"Les raffinements de la raison et les nuances d’ombre de l’émotion ne peuvent pas atteindre un public considérable", a noté cyniquement Edward Bernays, le père des relations publiques modernes.
Le rythme trépidant et le format abrégé de la télévision excluent les complexités et les nuances. La télévision est manichéenne, bien et mal, noir et blanc, héros et méchant. Elle nous fait confondre les émotions induites avec la connaissance. Elle renforce le récit mythique de la vertu et de la bonté américaines. Elle rend hommage à des experts et spécialistes soigneusement sélectionnés par les élites du pouvoir et l’idéologie régnante. Elle discrédite ou ridiculise tous ceux qui s’opposent.
Le Parti démocrate est-il assez stupide pour croire qu’il a perdu l’élection présidentielle à cause des courriels fuités de John Podesta et de la décision du directeur du FBI, James Comey, peu de temps avant le vote, d’envoyer une lettre au Congrès à propos du serveur de messagerie privé de Clinton ? La direction du parti démocrate ne peut-elle pas voir que la cause première de la défaite est qu’elle a abandonné les travailleurs pour promouvoir les intérêts des entreprises ? Ne comprend-t’elle pas que, bien que ses mensonges et sa propagande aient fonctionné pendant trois décennies, les Démocrates ont fini par perdre leur crédibilité auprès de ceux qu’ils avaient trahis ?
L’indignation de l’establishment démocratique, au sujet de la fuite de courrier électronique vers le site de WikiLeaks, ignore le fait qu’une telle divulgation d’information dommageable est une tactique employée couramment par le gouvernement des États-Unis et d’autres, y compris la Russie, pour discréditer des individus et des entités. Cela fait partie intégrante de la presse. Personne, même au sein du parti démocrate, n’a fait valoir de façon convaincante que les emails de Podesta étaient fabriqués. Ces courriels sont réels. Ils ne peuvent pas être étiquetés fausses nouvelles.
En tant que correspondant à l’étranger, j’ai reçu régulièrement des informations divulguées, parfois confidentielles, de divers groupes ou gouvernements cherchant à endommager certaines cibles. L’agence de renseignement nationale d’Israël, le Mossad, m’avait parlé d’un petit aéroport appartenant au gouvernement iranien à l’extérieur de Hambourg, en Allemagne. Je suis allé à l’aéroport et j’ai publié une enquête qui a constaté que, comme les Israéliens m’en avaient correctement informé, l’Iran l’utilisait pour démonter du matériel nucléaire, l’expédier en Pologne, le remonter et l’envoyer vers l’Iran par avion. L’aéroport a été fermé après mon article.
Dans un autre cas, le gouvernement des États-Unis m’a remis des documents montrant qu’un membre important du parlement chypriote et son cabinet d’avocats blanchissaient de l’argent pour la mafia russe. Mon histoire a paralysé les affaires légitimes du cabinet d’avocats et a incité le politicien à poursuivre The New York Times et moi. Les avocats du journal ont choisi de contester la poursuite devant un tribunal chypriote, en disant qu’ils ne pouvaient pas obtenir un procès équitable là-bas. Ils m’ont dit que, pour éviter l’arrestation, je ne devais pas retourner à Chypre.
Je pourrais remplir plusieurs colonnes avec des exemples comme ceux-ci.
Les gouvernements n’organisent pas des fuites parce qu’ils se soucient de la démocratie ou d’une presse libre. Ils le font parce qu’il est dans leur intérêt de faire tomber quelqu’un ou quelque chose. Dans la plupart des cas, parce que le journaliste vérifie l’information divulguée, la nouvelle n’est pas un faux. C’est lorsque le journaliste ne vérifie pas l’information – comme ce fut le cas lorsque le New York Times a rapporté sans scrupule les accusations de l’administration Bush prétendant faussement que Saddam Hussein avait des armes de destruction massive en Irak – qu’il participe à la vaste industrie des fausses nouvelles.
De fausses nouvelles sont maintenant utilisées pour dépeindre des sites d’information indépendants, y compris Truthdig, et des journalistes indépendants, comme des informateurs ou des agents involontaires de la Russie. Les élites des partis républicain et démocrate utilisent des fausses nouvelles dans leur tentative pour présenter Trump comme une marionnette du Kremlin et invalider l’élection. Aucune preuve convaincante de telles accusations n’a été rendue publique. Mais la fausse nouvelle est devenue un bélier dans la dernière série de diffamations russophobes.
Dans une lettre à Truthdig, datée du 7 décembre, l’avocat du Washington Post (qui a publié un article le 24 novembre à propos d’allégations selon lesquelles Truthdig et quelque 200 autres sites Web étaient des outils de propagande russe), disait que l’auteur de l’article, Craig Timberg connaissait l’identité des accusateurs anonymes de PropOrNot, le groupe qui a fait les accusations. [Note de la rédaction de Truthdig : l’avocat a écrit, en partie, au sujet de l’article du 24 novembre et de PropOrNot, "La description de l’article repose sur des rapports substantiels de M. Timberg, y compris de nombreuses entrevues, des vérifications d’antécédents de personnes spécifiques impliquées dans le groupe (dont les identités étaient connues de Timberg, contrairement à vos spéculations). […]"]. Le Washington Post dit qu’il doit protéger l’anonymat de PropOrNot. Il a transmis une fausse accusation sans preuve. Les victimes, dans ce cas, ne peuvent pas répondre adéquatement, parce que les accusateurs sont anonymes. Ceux qui sont diffamés sont informés qu’ils devraient faire appel à PropOrNot pour obtenir que leurs noms soient retirés de la liste noire du groupe. Ce procédé de raisonnement circulaire donne de la crédibilité aux groupes anonymes qui établissent des listes noires et propagent des fausses nouvelles, ainsi qu’aux mensonges qu’ils répandent.
La transformation culturelle et sociale du XXe siècle, dont E.P. Thompson a parlé dans son essai Time, Work-Discipline, and Industrial Capitalism, s’est avérée être beaucoup plus que l’étreinte d’un système économique ou la célébration du patriotisme. Cela fait partie, a-t-il souligné, d’une réinterprétation révolutionnaire de la réalité. Elle marque l’ascendant de la culture de masse, la destruction de la culture authentique et de la véritable vie intellectuelle.
Richard Sennett, dans son livre The Fall of the Public Man, a identifié la montée de la culture de masse comme l’une des forces principales derrière ce qu’il a appelé une nouvelle "personnalité collective […] engendrée par un fantasme commun". Et les grands propagandistes du siècle sont non seulement d’accord, mais ajoutent que ceux qui peuvent manipuler et façonner ces fantasmes déterminent les directions prises par la "personnalité collective".
Cette énorme pression interne, cachée à la vue du public, rend la production d’un bon journalisme et d’une bonne érudition très, très difficile. Les journalistes et les universitaires qui se soucient de la vérité, et ne reculent pas, sont soumis à une coercition subtile, parfois ouverte, et sont souvent purgés des institutions.
Les images, qui sont le moyen par lequel la plupart des gens ingèrent maintenant les informations, sont particulièrement enclines à être transformées en fausses nouvelles. La langue, comme le remarque le critique culturel Neil Postman, "ne fait sens que lorsqu’elle est présentée comme une suite de propositions. La signification est déformée lorsqu’un mot ou une phrase est, comme on dit, pris hors contexte. Quand un lecteur ou un auditeur est privé de ce qui a été dit avant et après". Les images n’ont pas de contexte. Elles sont "visibles d’une manière différente". Les images, surtout lorsqu’elles sont livrées en segments longs et rapides, démembrent et déforment la réalité. Le procédé "recrée le monde dans une série d’événements idiosyncrasiques".
Michael Herr, qui a couvert la guerre du Vietnam pour le magazine Esquire, a observé que les images de la guerre présentées dans les photographies et à la télévision, à la différence du mot imprimé, obscurcissent la brutalité du conflit. "La télévision et les nouvelles ont toujours été présentées comme ayant mis fin à la guerre, a déclaré M. Herr. J’ai pensé le contraire. Ces images ont toujours été vues dans un autre contexte – intercalées entre les publicités – de sorte qu’elles sont devenues un entremet sucré dans l’esprit du public. Je pense que cette couverture a prolongé la guerre."
Une population qui a oublié l’imprimerie, bombardée par des images discordantes et aléatoires, est dépouillée du vocabulaire ainsi que du contexte historique et culturel permettant d’articuler la réalité. L’illusion est la vérité. Un tourbillon d’élans émotionnels fabriqués nourrit notre amnésie historique.
Internet a accéléré ce processus. Avec les nouvelles par câble, il a divisé le pays en clans antagonistes. Les membres d’un clan regardent les mêmes images et écoutent les mêmes récits, créant une réalité collective. Les fausses nouvelles abondent dans ces bidonvilles virtuels. Le dialogue est clos. La haine des clans opposés favorise une mentalité de troupeau. Ceux qui expriment de l’empathie pour l’ennemi sont dénoncés par leurs compagnons de route pour leur impureté supposée. C’est aussi vrai à gauche qu’à droite. Ces clans et leurs troupeaux, gavés régulièrement de fausses nouvelles conçues pour émouvoir, ont donné naissance à Trump.
Trump est habile à communiquer à travers l’image, les slogans tapageurs et le spectacle. Les fausses nouvelles, qui dominent déjà la presse écrite et la télévision, définiront les médias sous son administration. Ceux qui dénonceront les mensonges seront vilipendés et bannis. L’État dévoué aux grandes entreprises multinationales a créé cette machine monstrueuse de propagande et l’a léguée à Trump. Il l’utilisera.

Auteur: Hedges Chris

Info: Internet, Truthdig, 18 décembre 2016

[ Etats-Unis ] [ Russie ] [ vingt-et-unième siècle ]

 

Commentaires: 0

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Une nouvelle approche du calcul réinvente l'intelligence artificielle

Par l'imprégnation d'énormes vecteurs de sens sémantique, nous pouvons amener les machines à raisonner de manière plus abstraite et plus efficace qu'auparavant.

M
algré le succès retentissant de ChatGPT et d'autres grands modèles de langage, les réseaux de neurones artificiels (ANN) qui sous-tendent ces systèmes pourraient être sur la mauvaise voie.

D'une part, les ANN sont "super gourmands en énergie", a déclaré Cornelia Fermüller , informaticienne à l'Université du Maryland. "Et l'autre problème est [leur] manque de transparence." De tels systèmes sont si compliqués que personne ne comprend vraiment ce qu'ils font, ou pourquoi ils fonctionnent si bien. Ceci, à son tour, rend presque impossible de les amener à raisonner par analogie, ce que font les humains - en utilisant des symboles pour les objets, les idées et les relations entre eux.

Ces lacunes proviennent probablement de la structure actuelle des RNA et de leurs éléments constitutifs : les neurones artificiels individuels. Chaque neurone reçoit des entrées, effectue des calculs et produit des sorties. Les RNA modernes sont des réseaux élaborés de ces unités de calcul, formés pour effectuer des tâches spécifiques.

Pourtant, les limites des RNA sont évidentes depuis longtemps. Considérez, par exemple, un ANN qui sépare les cercles et les carrés. Une façon de le faire est d'avoir deux neurones dans sa couche de sortie, un qui indique un cercle et un qui indique un carré. Si vous voulez que votre ANN discerne également la couleur de la forme - bleu ou rouge - vous aurez besoin de quatre neurones de sortie : un pour le cercle bleu, le carré bleu, le cercle rouge et le carré rouge. Plus de fonctionnalités signifie encore plus de neurones.

Cela ne peut pas être la façon dont notre cerveau perçoit le monde naturel, avec toutes ses variations. "Vous devez proposer que, eh bien, vous avez un neurone pour toutes les combinaisons", a déclaré Bruno Olshausen , neuroscientifique à l'Université de Californie à Berkeley. "Donc, vous auriez dans votre cerveau, [disons,] un détecteur Volkswagen violet."

Au lieu de cela, Olshausen et d'autres soutiennent que l'information dans le cerveau est représentée par l'activité de nombreux neurones. Ainsi, la perception d'une Volkswagen violette n'est pas codée comme les actions d'un seul neurone, mais comme celles de milliers de neurones. Le même ensemble de neurones, tirant différemment, pourrait représenter un concept entièrement différent (une Cadillac rose, peut-être).

C'est le point de départ d'une approche radicalement différente de l'informatique connue sous le nom d'informatique hyperdimensionnelle. La clé est que chaque élément d'information, comme la notion d'une voiture, ou sa marque, son modèle ou sa couleur, ou tout cela ensemble, est représenté comme une seule entité : un vecteur hyperdimensionnel.

Un vecteur est simplement un tableau ordonné de nombres. Un vecteur 3D, par exemple, comprend trois nombres : les coordonnées x , y et z d'un point dans l'espace 3D. Un vecteur hyperdimensionnel, ou hypervecteur, pourrait être un tableau de 10 000 nombres, par exemple, représentant un point dans un espace à 10 000 dimensions. Ces objets mathématiques et l'algèbre pour les manipuler sont suffisamment flexibles et puissants pour amener l'informatique moderne au-delà de certaines de ses limites actuelles et favoriser une nouvelle approche de l'intelligence artificielle.

"C'est ce qui m'a le plus enthousiasmé, pratiquement de toute ma carrière", a déclaré Olshausen. Pour lui et pour beaucoup d'autres, l'informatique hyperdimensionnelle promet un nouveau monde dans lequel l'informatique est efficace et robuste, et les décisions prises par les machines sont entièrement transparentes.

Entrez dans les espaces de grande dimension

Pour comprendre comment les hypervecteurs rendent le calcul possible, revenons aux images avec des cercles rouges et des carrés bleus. Nous avons d'abord besoin de vecteurs pour représenter les variables SHAPE et COLOR. Ensuite, nous avons également besoin de vecteurs pour les valeurs pouvant être affectées aux variables : CERCLE, CARRÉ, BLEU et ROUGE.

Les vecteurs doivent être distincts. Cette distinction peut être quantifiée par une propriété appelée orthogonalité, ce qui signifie être à angle droit. Dans l'espace 3D, il existe trois vecteurs orthogonaux entre eux : un dans la direction x , un autre dans la direction y et un troisième dans la direction z . Dans un espace à 10 000 dimensions, il existe 10 000 vecteurs mutuellement orthogonaux.

Mais si nous permettons aux vecteurs d'être presque orthogonaux, le nombre de ces vecteurs distincts dans un espace de grande dimension explose. Dans un espace à 10 000 dimensions, il existe des millions de vecteurs presque orthogonaux.

Créons maintenant des vecteurs distincts pour représenter FORME, COULEUR, CERCLE, CARRÉ, BLEU et ROUGE. Parce qu'il y a tellement de vecteurs presque orthogonaux possibles dans un espace de grande dimension, vous pouvez simplement assigner six vecteurs aléatoires pour représenter les six éléments ; ils sont presque garantis d'être presque orthogonaux. "La facilité de créer des vecteurs presque orthogonaux est une raison majeure d'utiliser la représentation hyperdimensionnelle", a écrit Pentti Kanerva , chercheur au Redwood Center for Theoretical Neuroscience de l'Université de Californie à Berkeley, dans un article influent de 2009.

L'article s'appuyait sur des travaux effectués au milieu des années 1990 par Kanerva et Tony Plate, alors étudiant au doctorat avec Geoff Hinton à l'Université de Toronto. Les deux ont développé indépendamment l'algèbre pour manipuler les hypervecteurs et ont fait allusion à son utilité pour le calcul en haute dimension.

Étant donné nos hypervecteurs pour les formes et les couleurs, le système développé par Kanerva et Plate nous montre comment les manipuler à l'aide de certaines opérations mathématiques. Ces actions correspondent à des manières de manipuler symboliquement des concepts.

La première opération est la multiplication. C'est une façon de combiner les idées. Par exemple, multiplier le vecteur FORME par le vecteur CERCLE lie les deux en une représentation de l'idée "LA FORME est CERCLE". Ce nouveau vecteur "lié" est presque orthogonal à la fois à SHAPE et à CIRCLE. Et les composants individuels sont récupérables - une caractéristique importante si vous souhaitez extraire des informations à partir de vecteurs liés. Étant donné un vecteur lié qui représente votre Volkswagen, vous pouvez dissocier et récupérer le vecteur pour sa couleur : VIOLET.

La deuxième opération, l'addition, crée un nouveau vecteur qui représente ce qu'on appelle une superposition de concepts. Par exemple, vous pouvez prendre deux vecteurs liés, "SHAPE is CIRCLE" et "COLOR is RED", et les additionner pour créer un vecteur qui représente une forme circulaire de couleur rouge. Là encore, le vecteur superposé peut être décomposé en ses constituants.

La troisième opération est la permutation ; cela implique de réorganiser les éléments individuels des vecteurs. Par exemple, si vous avez un vecteur tridimensionnel avec des valeurs étiquetées x , y et z , la permutation peut déplacer la valeur de x vers y , y vers z et z vers x. "La permutation vous permet de construire une structure", a déclaré Kanerva. "Ça permet de gérer des séquences, des choses qui se succèdent." Considérons deux événements, représentés par les hypervecteurs A et B. Nous pouvons les superposer en un seul vecteur, mais cela détruirait les informations sur l'ordre des événements. La combinaison de l'addition et de la permutation préserve l'ordre ; les événements peuvent être récupérés dans l'ordre en inversant les opérations.

Ensemble, ces trois opérations se sont avérées suffisantes pour créer une algèbre formelle d'hypervecteurs permettant un raisonnement symbolique. Mais de nombreux chercheurs ont été lents à saisir le potentiel de l'informatique hyperdimensionnelle, y compris Olshausen. "Cela n'a tout simplement pas été pris en compte", a-t-il déclaré.

Exploiter le pouvoir

En 2015, un étudiant d'Olshausen nommé Eric Weiss a démontré un aspect des capacités uniques de l'informatique hyperdimensionnelle. Weiss a compris comment représenter une image complexe comme un seul vecteur hyperdimensionnel contenant des informations sur tous les objets de l'image, y compris leurs propriétés, telles que les couleurs, les positions et les tailles.

"Je suis pratiquement tombé de ma chaise", a déclaré Olshausen. "Tout d'un coup, l'ampoule s'est allumée."

Bientôt, d'autres équipes ont commencé à développer des algorithmes hyperdimensionnels pour reproduire des tâches simples que les réseaux de neurones profonds avaient commencé à effectuer environ deux décennies auparavant, comme la classification d'images.

Considérons un ensemble de données annotées composé d'images de chiffres manuscrits. Un algorithme analyse les caractéristiques de chaque image en utilisant un schéma prédéterminé. Il crée ensuite un hypervecteur pour chaque image. Ensuite, l'algorithme ajoute les hypervecteurs pour toutes les images de zéro pour créer un hypervecteur pour l'idée de zéro. Il fait ensuite la même chose pour tous les chiffres, créant 10 hypervecteurs "de classe", un pour chaque chiffre.

Maintenant, l'algorithme reçoit une image non étiquetée. Il crée un hypervecteur pour cette nouvelle image, puis compare l'hypervecteur aux hypervecteurs de classe stockés. Cette comparaison détermine le chiffre auquel la nouvelle image ressemble le plus.

Pourtant, ce n'est que le début. Les points forts de l'informatique hyperdimensionnelle résident dans la capacité de composer et de décomposer des hypervecteurs pour le raisonnement. La dernière démonstration en date a eu lieu en mars, lorsqu'Abbas Rahimi et ses collègues d'IBM Research à Zurich ont utilisé l'informatique hyperdimensionnelle avec des réseaux de neurones pour résoudre un problème classique de raisonnement visuel abstrait - un défi important pour les RNA typiques, et même certains humains. Connu sous le nom de matrices progressives de Raven, le problème présente des images d'objets géométriques dans, disons, une grille 3 par 3. Une position dans la grille est vide. Le sujet doit choisir, parmi un ensemble d'images candidates, l'image qui correspond le mieux au blanc.

"Nous avons dit:" C'est vraiment ... l'exemple qui tue pour le raisonnement abstrait visuel, allons-y "", a déclaré Rahimi.

Pour résoudre le problème à l'aide de l'informatique hyperdimensionnelle, l'équipe a d'abord créé un dictionnaire d'hypervecteurs pour représenter les objets dans chaque image ; chaque hypervecteur du dictionnaire représente un objet et une combinaison de ses attributs. L'équipe a ensuite formé un réseau de neurones pour examiner une image et générer un hypervecteur bipolaire - un élément peut être +1 ou -1 - aussi proche que possible d'une superposition d'hypervecteurs dans le dictionnaire ; l'hypervecteur généré contient donc des informations sur tous les objets et leurs attributs dans l'image. "Vous guidez le réseau de neurones vers un espace conceptuel significatif", a déclaré Rahimi.

Une fois que le réseau a généré des hypervecteurs pour chacune des images de contexte et pour chaque candidat pour l'emplacement vide, un autre algorithme analyse les hypervecteurs pour créer des distributions de probabilité pour le nombre d'objets dans chaque image, leur taille et d'autres caractéristiques. Ces distributions de probabilité, qui parlent des caractéristiques probables à la fois du contexte et des images candidates, peuvent être transformées en hypervecteurs, permettant l'utilisation de l'algèbre pour prédire l'image candidate la plus susceptible de remplir l'emplacement vacant.

Leur approche était précise à près de 88 % sur un ensemble de problèmes, tandis que les solutions de réseau neuronal uniquement étaient précises à moins de 61 %. L'équipe a également montré que, pour les grilles 3 par 3, leur système était presque 250 fois plus rapide qu'une méthode traditionnelle qui utilise des règles de logique symbolique pour raisonner, car cette méthode doit parcourir un énorme livre de règles pour déterminer la bonne prochaine étape.

Un début prometteur

Non seulement l'informatique hyperdimensionnelle nous donne le pouvoir de résoudre symboliquement des problèmes, mais elle résout également certains problèmes épineux de l'informatique traditionnelle. Les performances des ordinateurs d'aujourd'hui se dégradent rapidement si les erreurs causées, par exemple, par un retournement de bit aléatoire (un 0 devient 1 ou vice versa) ne peuvent pas être corrigées par des mécanismes de correction d'erreurs intégrés. De plus, ces mécanismes de correction d'erreurs peuvent imposer une pénalité sur les performances allant jusqu'à 25 %, a déclaré Xun Jiao , informaticien à l'Université de Villanova.

Le calcul hyperdimensionnel tolère mieux les erreurs, car même si un hypervecteur subit un nombre important de retournements de bits aléatoires, il reste proche du vecteur d'origine. Cela implique que tout raisonnement utilisant ces vecteurs n'est pas significativement impacté face aux erreurs. L'équipe de Jiao a montré que ces systèmes sont au moins 10 fois plus tolérants aux pannes matérielles que les ANN traditionnels, qui sont eux-mêmes des ordres de grandeur plus résistants que les architectures informatiques traditionnelles. "Nous pouvons tirer parti de toute [cette] résilience pour concevoir du matériel efficace", a déclaré Jiao.

Un autre avantage de l'informatique hyperdimensionnelle est la transparence : l'algèbre vous indique clairement pourquoi le système a choisi la réponse qu'il a choisie. Il n'en va pas de même pour les réseaux de neurones traditionnels. Olshausen, Rahimi et d'autres développent des systèmes hybrides dans lesquels les réseaux de neurones cartographient les éléments du monde physique en hypervecteurs, puis l'algèbre hyperdimensionnelle prend le relais. "Des choses comme le raisonnement analogique vous tombent dessus", a déclaré Olshausen. "C'est ce que nous devrions attendre de tout système d'IA. Nous devrions pouvoir le comprendre comme nous comprenons un avion ou un téléviseur.

Tous ces avantages par rapport à l'informatique traditionnelle suggèrent que l'informatique hyperdimensionnelle est bien adaptée à une nouvelle génération de matériel extrêmement robuste et à faible consommation d'énergie. Il est également compatible avec les "systèmes informatiques en mémoire", qui effectuent le calcul sur le même matériel qui stocke les données (contrairement aux ordinateurs von Neumann existants qui transfèrent inefficacement les données entre la mémoire et l'unité centrale de traitement). Certains de ces nouveaux appareils peuvent être analogiques, fonctionnant à très basse tension, ce qui les rend économes en énergie mais également sujets aux bruits aléatoires. Pour l'informatique de von Neumann, ce caractère aléatoire est "le mur que vous ne pouvez pas franchir", a déclaré Olshausen. Mais avec l'informatique hyperdimensionnelle, "vous pouvez simplement percer".

Malgré ces avantages, l'informatique hyperdimensionnelle en est encore à ses balbutiements. "Il y a un vrai potentiel ici", a déclaré Fermüller. Mais elle souligne qu'il doit encore être testé contre des problèmes du monde réel et à des échelles plus grandes, plus proches de la taille des réseaux de neurones modernes.

"Pour les problèmes à grande échelle, cela nécessite un matériel très efficace", a déclaré Rahimi. "Par exemple, comment [faites-vous] une recherche efficace sur plus d'un milliard d'articles ?"

Tout cela devrait venir avec le temps, a déclaré Kanerva. "Il y a d'autres secrets [que] les espaces de grande dimension détiennent", a-t-il déclaré. "Je vois cela comme le tout début du temps pour le calcul avec des vecteurs."

Auteur: Ananthaswamy Anil

Info: https://www.quantamagazine.org/ Mais 2023

[ machine learning ]

 

Commentaires: 0

Ajouté à la BD par miguel

vacheries

Le Top 10 des livres que vous n'avez jamais réussi à finir

Quel est le livre que vous n'avez jamais réussi à terminer ? Nous vous avons posé la question sur les réseaux sociaux, et vous avez été plus de trois mille à nous répondre. Voici le top 10 des livres qui vous sont tombés des mains.

On a rarement vu autant de pavés sur les tables des libraires ! Il n'existe pas forcément de lien entre la difficulté à lire un livre, et son épaisseur. Pour autant, cette rentrée littéraire riche en gros volumes nous a inspiré un sondage, que nous avons lancé sur nos réseaux sociaux le 27 septembre : nous avons voulu savoir quels romans vous n'aviez jamais réussi à terminer. Voici donc le top 10 des livres qui vous sont tombés des mains. Ceux qui détiennent la palme de l'ennui, de la complexité, ou du malaise... ! De l'Ulysse de James Joyce, au Voyage au bout de la nuit, de Céline.

1. "Ulysse", de James Joyce

La palme du livre le plus difficile à terminer revient sans conteste à l'Ulysse, de Joyce. Si ça peut ôter des scrupules à certains, notez que lors de sa parution, en 1922, Virginia Woolf elle-même l'avait jugé "prétentieux" et "vulgaire" !

Je n'y arrive pas. J'ai testé deux traductions différentes. J'ai même essayé en anglais. J'ai tout essayé. Impossible. Pour moi ce texte ne fait aucun sens. Je n'ai jamais dépassé la page 50. Marie-Claude

À la centième page ça lasse. Et il y en a bien plus ! Pourtant j'ai essayé trois fois. La dernière fois j'étais en Turquie : le livre y est resté. Échangé contre un polar dans une auberge. Moins bien écrit, mais lisible ! Delphine

Trop longuement perché pour moi, décourageant quand on pense que ces mille pages ne représentent qu'une journée narrée ! @Antilabe

Très touffu, assez opaque, nécessite, je pense, pour être bien compris, de solides connaissances en art littéraire, ou en tout cas d'avoir un parcours littéraire très développé, pour mettre à nu l'architecture du roman. Alexis

Ils disent tous que c'est immense mais quand tu prends le livre sur les étagères, à partir de la page 10 c'est du papier Canson. @xabicasto

Si vous cherchez à dompter l'Ulysse de James Joyce, vous pouvez commencer par réécouter ces Nouveaux chemins de la connaissance d'octobre 2014. Pour parler du roman, Adèle Van Reeth recevait Jacques Aubert, universitaire et éditeur des œuvres de Joyce (et de Virginia Woolf) dans la Bibliothèque de la Pléiade.

2. "Les Bienveillantes", de Jonathan Littell

Médaille d'argent pour Les Bienveillantes, prix Goncourt 2006, qui, à en croire vos témoignages, a donné la nausée à un certain nombre d'entre vous ! Notamment à cause d'une identification au narrateur (un ancien SS), vécue difficilement...

Une plume sublissime. Mais je finis par m'identifier au "je".... et je vomis. Impossible de prendre du recul tant l'écriture est puissante. Géraldine

J'ai étalé ma lecture sur neuf mois... malgré tout, impossible d'arriver au bout. Trop long, trop lourd, trop sordide, trop d'abréviations qui renvoient le lecteur tous les quatre paragraphes au glossaire de fin d'ouvrage (tout est en allemand) !! Je n'ai pas réussi, ni voulu me familiariser avec ce tout. Jeanne

Ce livre m'a plongée dans une angoisse monstre. Jusqu'à me poursuivre la nuit, sous forme de cauchemars... je l'ai arrêté à contre-cœur car je le trouvais aussi fascinant que perturbant. Anaïs

Le décalage, certes voulu, entre l’horreur des faits évoqués et la froideur du récit m’était insupportable. Par ailleurs, le profil du narrateur me semblait peu crédible et sans intérêt : sur neuf-cents pages, c’est long. Stéphane

Je n'ai pas trouvé la grille de lecture, pas compris le sens. Absence d'émotions, même négatives. Un catalogue d'horreurs aseptisées. Si quelqu’un peut m'aider à comprendre ce qui lui a valu le Prix Goncourt, je suis preneur. Geoffrey

En décembre 2006, année de publication des Bienveillantes, l'émission Répliques se posait la question de savoir si le succès de ce roman historique sur le génocide des Juifs pendant la Seconde Guerre mondiale, était ou non choquant. Au micro, la journaliste Nathalie Crom, qui qualifiait ce roman de "stupéfiant", mais aussi l'un des détracteurs de l'ouvrage, le philosophe Michel Terestchenko, qui le considérait comme "un mélange de lieux communs, de platitudes et de clichés" :

3. "À la Recherche du temps perdu", de Marcel Proust

Le bronze revient sans surprise à Marcel Proust, mondialement connu pour ses phrases interminables, et à son oeuvre cathédrale, À la recherche du temps perdu. Rappelons qu'en 1913, Gallimard avait dans un premier temps refusé de publier Du côté de chez Swann.

C'est illisible. Des paragraphes qui font cinq pages, des phrases qui n'en finissent jamais... Un éditeur moderne ne l'aurait jamais publié ! Pierre

Longtemps je me suis couchée de bonne heure... pour lire, mais celui-là m'a complètement endormie. @Tlih_Eilerua

Quand j'avais 15-16 ans, il a même traversé la fenêtre et a atterri dans la rue. Je trouvais ce livre insupportable. Olivier

C'est tellement riche et beau qu'après avoir lu une page, il faut la savourer et la méditer avant de passer à la suivante. Et après une dizaine de pages, je ressens comme un trop plein, une sorte d'écœurement. Rémi

Ah, "La Recherche"... Arrêtée au Temps retrouvé ! @TataMarceline

Les lecteurs du XXe siècles ont-ils eu du mal, eux aussi, à entrer dans La Recherche du temps perdu ? Pour le savoir, réécoutez ce Lieux de mémoire diffusé sur notre antenne en 1997. Antoine Compagnon et Jean-Yves Tadié y racontaient leur première lecture de La Recherche, et expliquaient comment donner envie de lire cette oeuvre... voilà qui tombe plutôt bien !

4. "Le Seigneur des anneaux", de J. R. R. Tolkien

La trilogie de Tolkien, parue entre 1954 et 1955, a recueilli également de très nombreux suffrages ! Beaucoup d'entre vous n'ont notamment pas su dépasser le très long préambule consacré aux mœurs des Hobbits et à leur vie dans La Comté.

Après avoir eu l'impression de passer une vie à errer dans la forêt, j'ai lâché l'affaire. @manel_bertrand

Le style, les longueurs, l'ennui... ! J'ai essayé de zapper les passages du début, comme on me l'avait conseillé. Mais rien à faire, je ne suis jamais arrivé à entrer dedans. Pourtant j'ai lu "Le Hobbit" facilement, ainsi que d'autres œuvres de fantasy. Sandrine

Au milieu du troisième tome, j'avais perdu tout intérêt de savoir si le bien allait triompher du mal. @emilycsergent

Tolkien, on aime, ou pas. Mais il faut reconnaître que l'écrivain était prodigieusement inventif, capable de créer un univers entier, doté de sa géographie particulière, et de ses langues singulières. En 1985, France Culture s'intéressait à ses inspirations, depuis le poème anglo-saxon de Béowulf, jusqu'aux légendes celtiques, en passant par les anciens livres gallois :

5. "Belle du Seigneur", d'Albert Cohen

Vous n'y êtes pas allés avec le dos de la cuillère pour dire votre incapacité à venir à bout du roman-fleuve de l'écrivain suisse francophone, publié en 1968 ! Joseph Kessel l'avait pourtant qualifié de "chef-d'œuvre absolu"...

J'avais l'impression de voir l'auteur se donner des tapes dans le dos et s'auto-contempler en train d'écrire. J'ai rarement lu quelque chose d'aussi satisfait et suffisant. Pas un personnage pour rattraper l'autre, on a envie de leur mettre des baffes à la Bud Spencer, à tour de rôle. Aucun humour en fait, pas de place pour l'autodérision, Cohen se prenant bien trop au sérieux. Samia

J'avais très envie d'aimer ce livre. Mais la scène où son sentiment pour le jeune homme bascule était tellement rapide et illogique, que ça m'a tout fichu en l'air. Je trouvais tout le monde tarte, j'ai arrêté au bout de deux-cents pages et je n'ai pas regretté. Solène

Impossible, malgré trois essais et à des années d’intervalle. Rien à faire. Ecriture trop poussive, métaphorique à l’excès, détails à foison... Impossible pour moi, grande lectrice et professeur de littérature, d’apprécier ce roman pourtant salué de tous. Françoise

En 2006, dans Carnet nomade, des artistes, des chercheurs et des zélateurs d'Albert Cohen venaient raconter leur lecture personnelle de Belle du seigneur. Nombre d'entre eux trouvaient à ce livre "humour, ferveur, et intelligence". Sauront-ils vous convaincre ?

6. "L'Homme sans qualités", de Robert Musil

Paru en 1932, le roman inachevé de l'écrivain autrichien Robert Musil a également fait consensus. Mille huit cents pages... on ne vous trouve pas très endurants !

Les premiers chapitres m'ont ravi : ce style et cet univers m'ont très vite pris. Pourquoi alors, au fur et à mesure, cette sensation d'enlisement, de stériles redites, d'absurdité, de vanité ? Et malgré tout l'impression saisissante de passer à côté de quelque chose d'énorme, pour lequel je ne serais pas outillé... Patrick

Des passages lents et interminables, et quelques éclats de génie qui m'ont fait m'accrocher jusqu'à la moitié (du premier tome), c'est déjà une performance. Méli

J'ai essayé maintes et maintes fois, il me tombe des mains et finit toujours sous mon lit ! Martine

Les premières pages sont prodigieuses, puis la magie disparaît. Musil ne l'a pas fini non plus ! @BrouLou

Et vous, êtes-vous parvenu(e) au bout de la grande oeuvre de Musil, qui met en scène des personnages ambivalents et en quête d'équilibre dans un monde en pleine mutation ? Peut-être que l'écoute de ce Une vie, une oeuvre, diffusé en 1989, vous décidera à en tenter ou en retenter la lecture !

7. "Le Rouge et le Noir", de Stendhal

Pour l'écrivain britannique William Somerset Maugham, il fait partie des dix plus grands romans jamais écrits. Pourtant, le grand classique de Stendhal, publié en 1830, vous tombe des mains ! Peut-être est-il trop étudié en classe ?

J'ai craqué au bout de quelques chapitres. Une à deux pages pour décrire une tapisserie de salon ou d'antichambre... juste imbuvable ! Nathalie

J'avais en permanence envie de secouer les protagonistes, insupportables de mollesse, à contempler leurs sentiments et émotions sous toutes les coutures (je reste polie). Je les hais. J'ai fini par jeter l'éponge, ce qui ne m'arrive jamais. Marie

Obligée de le lire à l'école deux années de suite, car la même prof de français. Je crois bien ne pas être allée jusqu'au bout, et ça m'a dégoûtée de la littérature classique ! Christine

Le professeur de littérature française Yves Ansel saura-t-il réconcilier les lecteurs avec Stendhal ? Il était venu en 2014, parler de ce fameux roman dans Les Nouveaux chemins de la connaissance :

8. "Madame Bovary", de Gustave Flaubert

Il ne pouvait pas ne pas faire partie de ce top 10 ! Il faut dire que Flaubert a tendu le bâton pour se faire battre : en écrivant ce roman publié en 1856, son but assumé était bel et bien de "faire un livre sur rien".

Alors que j'aime beaucoup Flaubert - j'ai adoré "Salammbô" ! -, je n'ai jamais réussi à finir "Madame Bovary". Je suppose que Flaubert est tellement doué pour décrire l'ennui d'Emma que cet ennui m'a gagné aussi. C'est un personnage qui m'ennuie, et m'agace... Certainement pour des raisons personnelles ! Caroline

Tous les personnages sont médiocres, lâches, stupides, on ne peut pas s'identifier à eux. Il faudrait que je m'y essaye à nouveau ! @AudeJavel1

Je n ai jamais pu aller plus loin que le mariage. Ça m'ennuyait trop. Un livre qui ne tient que par son style, ça ne m'intéresse pas. Il faut qu'il se passe des choses. Je suis peut être trop parisienne ? Caroline

En août 2017, nous consacrions un article à la manière dont Flaubert avait révolutionné l'écriture romanesque avec Madame Bovary. Car dès sa publication, en 1856, le roman choqua d'abord par son style, avant même d'être mis en procès pour son caractère "licencieux" l'année suivante. De quoi peut-être rassurer le lectorat récalcitrant !

9. "Cent ans de solitude", de Gabriel Garcia Marquez

Trop de personnages, et une traduction jugée "laborieuse" pour certains. La grande oeuvre de Gabriel Garcia Marquez (Nobel de littérature en 1982), parue en 1967, a dérouté un bon nombre d'entre vous ! Après tout, peut-être que l'on peut se contenter de la première phrase du roman, connue comme l'un des incipits les plus célèbres de la littérature : "Bien des années plus tard, face au peloton d'exécution, le colonel Aureliano Buendía devait se rappeler ce lointain après-midi au cours duquel son père l'emmena faire connaissance avec la glace."

Une oeuvre géniale dans laquelle je me suis plongé à corps perdu. Et puis, je ne sais plus quand, j'ai arrêté de le lire pendant une deux semaines. Et quand j'ai voulu m'y remettre, je ne savais plus qui était qui dans cette histoire (fichus Buendia avec leurs prénoms mélangés !), et j'ai abandonné. Lucas

J'ai eu l'impression de rentrer dans un monde distorsion avec des malheurs sans fin, je n'en pouvais plus. Anne-Sophie

Je ne sais pas pourquoi les éditeurs n'insèrent pas un arbre généalogique ! C'est bien ça qui manque pour le terminer... Dee Dee

En 1970, sur France Culture, l'émission Les Voix étrangères s'intéressait à Cent ans de solitude : "Il arrive parfois qu'un livre refuse sa condition de livre. La condition d'un volume que chacun ouvre ou pose à son gré, pour faire irruption dans la vie quotidienne du lecteur, s'installer d'un air résolu dans les rêves, mais aussi dans la conversation familiale du soir", commentait la critique littéraire Ugne Karvelis.

10. "Voyage au bout de la nuit", de Louis-Ferdinand Céline

"Voyage au bout de l'ennui", le jeu de mots est facile, mais vous êtes nombreux à l'avoir osé ! En avril 1932, Céline promettait pourtant à Gaston Gallimard que son roman était "du pain pour un siècle entier de littérature" !

J'avais et j'ai toujours l'impression que le vieux Céline sortait comme un diable de sa boîte à chaque ponctuation, ricanant, insultant et grinçant. Cette vision récurrente m'effraie encore, rien que d'y penser. C'est le seul livre que j'ai jeté au travers d'une pièce, de peur et de rage. Le seul roman qui me renvoie à un perpétuel effondrement. Hélène

Bien que je trouve l'écriture de Céline fascinante et d'une intelligence rare, le dernier tiers me laisse toujours moralement le cœur au bord des lèvres. J'avance toujours un peu plus mais ne le termine jamais. Stéfanie

J'ai essayé deux fois : style apprécié, mais c'est le contexte, je n'arrive jamais à garder mon attention quand l'objet parle des guerres du XXe siècle. Je ne saurais même pas dire si c'est par ennui ou par dégoût de cette période. Oda

,

Auteur: Internet

Info: Combis Hélène, https://www.franceculture.fr, 06/10/2017

[ survol littéraire ]

 
Commentaires: 2
Ajouté à la BD par miguel

ufo

Un bon copain et ancien compagnon d'escadron, Dave "Sex" Fravor, a vécu une des histoires d'aviation les plus bizarres de tous les temps. Un truc qui éclate la crédibilité, alors je vais la raconter en m'appuyant sur la bonne foi de Dave.
Je le connais personnellement - très bien. Nous avons volé sur des A-6 ensemble avant qu'il n'entre dans le monde des Hornet. C'est un mec drôle. Intelligent et malin, avec la typique surestimation de ses compétences du pilote de chasse. En vol cependant, Dave était aussi professionnel que possible.
Au matin du 14 novembre 2004, Dave et son équipier se sont lancés dans le ciel bleu clair de la Californie du Sud, à une centaine de kilomètres au sud-ouest de San Diego. Leur nom d'appel était FASTEAGLE 01. Son ailier a décollé juste après eux dans FASTEAGLE 02. Ils ont grimpé au-dessus du navire et eu rendez-vous de façon normale avant de partir vers la zone de travail assignée dans l'océan ouvert au sud de l'USS Nimitz. Jour normal, opérations normales pour le pré-déploiement du cycle de travail dans tel milieu.
Le Nimitz Carrier Strike Group était déjà en poste depuis quelques semaines et travaillait à intégrer les opérations du transporteur avec ses différents navires de soutien, y compris le croiseur de missiles guidés de classe Ticonderoga, USS Princeton. En ce qui concerne Dave, c'était un jour standard, autre étape dans le long processus de la préparation des navires du Strike group et des avions de l'Air Wing pour travailler harmonieusement leur prochain déploiement de combat.
Ce que Dave ne savait pas, c'était qu'au cours des derniers jours, le Princeton avait attrapé des retours bizarres sur leur radar SPY-1. À plusieurs occasions, à compter du 10 novembre, le fire control officer, un type expérimenté, tout comme les radaristes, avaient détecté de nombreux échos qui se situaient bien au-dessus du volume de balayage du radar, quelque part à plus de 80 000 pieds. Des signaux qui partaient de 80 000 pieds jusqu'à planer à environ 50 pieds au-dessus de l'eau en quelques secondes. Toujours au même endroit, à la latitude d'environ 30NM au large de la côte de Baja, à environ 70NM au sud-ouest de Tijuana. À l'époque, le SPY-1 était le radar tactique le plus sophistiqué et le plus puissant de la planète. Avec cet engin, ils ont pu suivre ces AAV* pendant qu'ils descendaient, tournaient et glissaient à des vitesses, des taux de rotation et des accélérations plus rapides que n'importe quel avion ami ou menace connu. Incroyablement rapide.
Une fois les avions de l'escadre aérienne arrivés près du Nimitz, le fire squad control du Princeton y vit l'opportunité d'utiliser ces atouts et ces yeux pour aider à résoudre le mystère de ces AAVs.
A un moment, le vol FASTEAGLE terminait son entraînement prévu, le cmdt de l'escadron VMFA-232 de Marine, le lieutenant-colonel "Cheeks" Kurth, effectuait un vol de vérification post-maintenance pas très loin. Il fut le premier engin rapide contacté par le Princeton. La communication était étrange et intrigante. On lui demandait d'enquêter sur un contact aérien non identifié. Ce n'est pas une demande terriblement inhabituelle quand un Strike Group est en transit ou déployé loin des eaux domestiques, mais c'est plus qu'un peu étrange, pratiquement en vue du San Diego Homeport. Pour ajouter aux communications inhabituelles, on lui demanda quel armement il avait à bord. "Aucun."
Alors que le Princeton communiquait avec Cheeks, ils tentait également de transmettre ce contact AAV à l'E-2C Hawkeye de l'Air Wing, également en vol à l'époque. L'équipage de VAW-117 participait au contrôle d'interception pour le vol FASTEAGLE pendant leur entraînement et le Princeton souhaitait maintenant que l'E-2 guide les Super Hornets vers le point d'interception avec le contact de l'AAV, qui planait à ce moment sur leur spot préféré, mais maintenant à environ 20 000 pieds au-dessus de l'océan.
Les retours de l'AAV n'étaient pas été assez forts pour apparaître sur le large balayage de l'E-2, mais une fois qu'ils concentrèrent leur radar sur les coordonnées que le Princeton leur indiqua ils obtinrent un contact faible. Echos qui ne suffisaient pas pour générer une piste cible. Alors le Princeton contacta directement FASTEAGLE. Bien qu'il n'ait pas pu verrouiller les AAV, le contrôleur E-2 resta sur la fréquence et put suivre toute l'évolution qui s'ensuivit.
Alors que Cheeks s'approchait de l'endroit où il était dirigé, le Princeton lui conseilla de rester au-dessus de 10K alors que la section des Super Hornets s'approchait de la cible. Son radar reconnut les deux ships FASTEAGLE, mais pas d'autre contact. Un moment plus tard, le Princeton lui ordonna de le laisser tomber et de retourner au navire. Comme il était très proche, il décida de survoler l'action et de jeter un coup d'oeil.
La mer était calme, presque vitreuse et on était en fin de matinée d'une belle journée. Des conditions parfaites. Alors que Cheeks survolait l'endroit, il vit une perturbation à la surface de l'océan. Une section ronde d'eau turbulente d'environ 50-100 mètres de diamètre. C'était la seule zone du type de ce qu'il nomma "eau vive", décrivant ça comme s'il y avait quelque chose sous la surface comme un banc ou ce qu'il avait entendu dire de ce à quoi ressemble un navire qui coule rapidement.
Il survola la perturbation et fit demi-tour en direction de Nimitz sans voir ce qui faisait mousser l'eau. Comme il s'en retournait, au moment où les Super Hornets convergeaient vers l'endroit, les eaux blanches cessèrent et la surface de l'océan redevint lisse. Le point de la perturbation précédente étant complètement indiscernable.
À quelques milliers de pieds au-dessous de lui, Dave avait vu le même spectacle surréaliste, tout comme il s'était fait demander par le Princeton si les jets FASTEAGLE avaient des armes avec munition. Dave, déconcerté, rapporta que tout ce qu'ils avaient c'était deux missiles d'entraînement passifs. On lui donna des vecteurs de portée et un ensemble de coordonnées et on leur a dit d'enquêter sur un contact aérien inconnu à cet endroit.
Sans plus d'informations sur le contact, ils descendirent vers 20 mile pieds pour balayer avec un radar, ne percevant rien. Aucun avion de ce vol ne portait de girouette FLIR, ce qui limitait le type de capteurs avec lesquels il pouvait effectuer des recherches; mais les deux avions étaient neufs, selon les termes de Dave: "Ils avaient toujours cette nouvelle odeur de voiture". Les radars APG-73 étaient à la fois neufs et avaient parfaitement fonctionné durant l'entraînement de l'heure précédente. Pourtant, les écrans des deux avions étaient vides au point que Princeton lança "Merge plot!" (radars stop ?)
De ce moment les quatre membres d'équipage n'étaient plus que des yeux. La première indication inhabituelle que Dave nota fut la zone d'eau vive sur la surface que Cheeks regardait par-dessus son épaule alors qu'il s'éloignait. Il se souvient avoir pensé qu'il s'agissait de la taille d'un 737 et peut-être que le contact sur lequel ils avaient été dirigés était un avion de ligne qui venait de s'écraser. Il manoeuvra son F-18 plus bas pour mieux voir. Comme il descendait à environ 20K il fut surpris à la vue d'un objet blanc qui se déplaçait juste au-dessus de l'eau moussante. Il était immaculé, sans relief, oblong, et effectuait des mouvements latéraux mineurs tout en restant à une altitude constante au-dessus du disque d'eau turbulente.
Dave mis FASTEAGLE 02 en haute couverture passant vers environ 15K et avec son équipier put assister aux événements d'un point de vue parfait. Dave continua sa plongée en bas vers l'objet, essayant maintenant d'asservir le radar par l'intermédiaire de son NCSM pour le régler sur une distance de courte portée. Sans succès. Son intention était de passer près de l'objet à près de 350 nœuds. En se rapprochant il remarqua que l'AAV avait orienté l'une de ses extrémités fine vers lui, comme si, selon ses mots, "Il venait de nous remarquer et maintenant il nous pointait".
L'AAV commença alors à s'élever de son vol stationnaire. L'objet, qu'il décrivit plus tard comme bougeant en tic-tac, s'est élevé et fit deux cercles à droite, à environ un mile de la trajectoire en cercle du Hornet de Dave. Les instincts de BFM prirent le dessus et Dave poussa le nez vers le bas pour couper le bas du cercle. Alors il regarda l'AAV en mettant le nez en l'air, et tenta à nouveau d'asservir son radar via le NCSM. Encore une fois, l'APG-73 ne put verrouiller l'objet volant blanc de la taille d'un chasseur à quelques milliers de pieds de là.
Tout au long de ces manoeuvres, le WSO de Dave diffusait les événements en temps réel de l'interception vers le Princeton. Les opérateurs radar de l'E-2 entendirent sur le réseau sécurisé ce qui ressemblait à l'une des centaines d'interceptions qu'ils avaient entendues au fil des ans. À l'exception notable que les voix des équipages étaient plus stressées et que le verbiage pour identifier la cible était différent de ce qu'ils entendaient en général.
Dans leurs commentaires de débriefing, Dave, son OSM et les deux autres équipages déclarèrent que l'objet avait initialement plané comme un Harrier. Ils le décrivirent comme étant uniformément blanc, mesurant environ 45 pieds de longueur (grosso modo comme un avion de chasse), avec un axe horizontal discernable (comme un fuselage) mais sans fenêtres visibles, ni nacelles, ailes ou de systèmes de propulsion.
Alors que Dave tentait de manoeuvrer et d'essayer d'obtenir un verrou de combat avec son radar, l'AAV resserra son virage, "lift vector, puis vers l'arrière" comme Dave l'a décrit. Dave demanda immédiatement au Princeton un snap instantané, mais le radar SPY-1 avait également perdu le contact.
Les premières réponses du Princeton furent "image propre". Quelques instants plus tard, le Princeton relança "Vous n'allez pas le croire, mais il est à votre CAP." Le Princeton avait récupéré l'AAV planant à 24K au niveau assigné Lat / Long que Dave avait utilisé plus tôt pendant l'entraînement comme point orbital.
Bien que court en carburant, le vol FASTEAGLE bascula vers la position CAP pour essayer de reprendre l'AAV. Ils ne virent rien, ni sur leur chemin de retour vers Nimitz. Même le cercle de 100 mètres d'eau océanique turbulente avait disparu, lieu maintenant indiscernable du reste de la surface de la mer. Interrogé plus tard, Dave rapporta qu'il n'avait rien vu sur ou sous la surface de l'océan qui aurait pu causer ce cercle d'eau turbulente. Il était là quand ils acquirent visuellement le tic-tac, puis c'était parti lorsqu'ils cerclèrent quelques minutes plus tard.
De retour sur Nimitz, les quatre membres d'équipage se sont dirigés vers le paraloft pour retirer leur équipement. Les quatre équipages suivants de VFA-41 s'habillaient pour leur mission d'entraînement dans la même zone, avec utilisation des mêmes points Lat / Long que les points CAP de Dave. Dave et ses membres d'équipage transmirent ce qu'ils avaient vu aux nouveaux gars et leur rappelèrent d'enregistrer s'ils le pouvaient.
Le temps que lancement de la nouvelle équipe se fasse avec rendez-vous et vérification avec l'E-2 pour le contrôle, on était en début d'après-midi; 1500. Les avions se séparèrent, avec un cap vers ce même emplacement du sud de la PAC. Ils naviguaient à 20K et 300kts, max endurance. Là aussi le jet, le radar et aussi cette fois le FLIR, étaient nickel et fonctionnaient parfaitement.
Le WSO acquit d'abord un contact sur le radar à une distance d'environ 30 NM alors qu'il fonctionnait en mode balayage RWS. Il vérifia les coordonnées et ça oscillait en effet au point précis du CAP. Il tenta plusieurs verrouillage STT, sans succès. Plus tard, lors du débriefing, il expliqua qu'il avait plusieurs indices révélateurs d'EA.
L'aspect de la cible sur l'enregistrement de tracking tournait à 360 degrés avec d'autres indications de brouillage distinctes. En mode de balayage moins précis, le retour indiquait que l'objet était, aux dires du WSO, "à quelques milliers de pieds au-dessous de nous. Environ 15-20K- mais stationnaire." Le seul mouvement fut généré par le verrouillage radar du jet vers l'emplacement de la PAC.
Le WSO utilisa le pod FLIR à bord, l'asservissant à la piste faible que le mode RWS avait pu générer. Il enregistra la séquence sur l'enregistreur de bord. En utilisant le mode IR, il avait pu se verrouiller sur l'AAV., qui apparaissait sur l'écran dans l’enregistrement comme un objet blanc sur fond noir planant sans moyens connus.
La caméra Infra rouge ne détectait pas de gaz chauds sous l'AAV, comme avec un Harrier ou un hélicoptère. C'était simplement suspendu dans les airs. Il passa en mode TV et put verrouiller à nouveau le FLIR sur l'objet tout en essayant, sans succès, d'obtenir une piste STT sur le radar. Comme il regardait, l'AAV sortit de l'écran vers la gauche si soudainement qu'il sembla disparaître. Sur la bande au ralenti l'objet accélère hors du champ de vision avec une vitesse choquante. Le WSO ne fut pas en mesure de réacquérir l'AAV soit dans RWS soit avec le FLIR.
D'une manière ou d'une autre, la bande fut diffusée sur YouTube. Quelques années après l'incident, en me racontant l'histoire, Dave me montra le lien. C'était sans grand intérêt sans les informations de base. Mais remis dans le contexte, c'était incroyable, en particulier le ralenti du point d'accélération hors de l'écran. Pendant des années, j'ai raconté l'histoire à des amis et leur ai montré la vidéo.
Le mois dernier, lorsque j'ai appelé Dave pour me rafraîchir la mémoire avant de m'asseoir pour écrire cette rencontre bizarre, il m'a informé que la vidéo avait été retirée de YouTube. Il m'a dit qu'une agence gouvernementale avec un identificateur à trois lettres avait récemment mené une enquête sur les AAVs et avait interviewé exhaustivement toutes les parties impliquées, les sept membres d'équipage, dont les 6 membres du VFA-41 et Cheeks du VMFA-232, le fire control officer et le chef principal du Princeton, ainsi que l'opérateur radar de l'E-2. Ils ont même questionné l'équipage de l'USS Louisville, un sous-marin Fast-Attack de la classe de Los Angeles, qui faisait partie du Nimitz Carrier Strike Group, qui a rapporté qu'il n'y avait pas de contacts sonar non identifiés ou de bruits sous-marins étranges ce jour-là.
Je ne sais pas quoi faire de ces événements. J'ai aimé l'histoire dès sa première écoute parce que c'est tellement fou. Je n'avais jamais beaucoup réfléchi aux extraterrestres ou aux ovnis. C'était pour moi du gaspillage de le faire. S'ils voulaient prendre contact, ils le feraient. S'ils voulaient observer de loin, ils pourraient facilement être impossibles à discerner compte tenu de la haute technologie qu'ils semblent avoir.
Maintenant j'ai été confronté à des témoins crédibles. Pas des cinglés portant des chapeaux de papier mais des gens que je connais, des gens de mon monde. Il y eut plusieurs plates-formes corroborantes qui détectèrent l'AAV à l'aide de capteurs variés. Et, bien sûr, les huit globes oculaires qui ont eu le visuel sur le tic-tac blanc alors que Dave manœuvrait pour l'intercepter.
Dave n'a pas besoin d'être un étranger pour vous non plus. Regardez-le sur la série PBS, Carrier, et faites-vous votre propre opinion sur son professionnalisme et sa santé mentale.

Auteur: Chierici Paco

Info: 14 mars 2015. *Anomalous Aerial Vehicles

[ témoignage ] [ extraterrestres ]

 

Commentaires: 0

consumérisme

La pornographie c’est ce à quoi ressemble la fin du monde
"Cinquante nuances de Grey", le livre comme le film, est une glorification du sadisme qui domine quasiment tous les aspects de la culture américaine et qui repose au coeur de la pornographie et du capitalisme mondial. Il célèbre la déshumanisation des femmes. Il se fait le champion d’un monde dépourvu de compassion, d’empathie et d’amour. Il érotise le pouvoir hypermasculin à l’origine de l’abus, de la dégradation, de l’humiliation et de la torture des femmes dont les personnalités ont été supprimées, dont le seul désir est de s’avilir au service de la luxure mâle. Le film, tout comme "American Sniper", accepte inconditionnellement un monde prédateur où le faible et le vulnérable sont les objets de l’exploitation tandis que les puissants sont des demi-dieu violents et narcissiques. Il bénit l’enfer capitaliste comme naturel et bon.

"La pornographie", écrit Robert Jensen, "c’est ce à quoi ressemble la fin du monde."

Nous sommes aveuglés par un fantasme auto-destructeur. Un éventail de divertissements et de spectacles, avec les émissions de télé "réalité", les grands évènements sportifs, les médias sociaux, le porno (qui engrange au moins le double de ce que génèrent les films hollywoodiens), les produits de luxe attirants, les drogues, l’alcool et ce Jésus magique, nous offre des issues de secours — échappatoires à la réalité — séduisantes. Nous rêvons d’être riches, puissants et célèbres. Et ceux que l’on doit écraser afin de construire nos pathétiques petits empires sont considérés comme méritants leurs sorts. Que la quasi-totalité d’entre nous n’atteindra jamais ces ambitions est emblématique de notre auto-illusionnement collectif et de l’efficacité de cette culture submergée par manipulations et mensonges.

Le porno cherche à érotiser le sadisme. Dans le porno les femmes sont payées pour répéter les mantras "Je suis une chatte. Je suis une salope. Je suis une pute. Je suis une putain. Baise moi violemment avec ta grosse bite." Elles demandent à être physiquement abusées. Le porno répond au besoin de stéréotypes racistes dégradants. Les hommes noirs sont des bêtes sexuelles puissantes harcelant les femmes blanches. Les femmes noires ont une soif de luxure brute, primitive. Les femmes latinos sont sensuelles et ont le sang chaud. Les femmes asiatiques sont des geishas dociles, sexuellement soumises. Dans le porno, les imperfections humaines n’existent pas. Les poitrines siliconées démesurées, les lèvres pulpeuses gonflées de gel, les corps sculptés par des chirurgiens plastiques, les érections médicalement assistées qui ne cessent jamais et les régions pubiennes rasées — qui correspondent à la pédophilie du porno — transforment les exécutants en morceaux de plastique. L’odeur, la transpiration, l’haleine, les battements du cœur et le toucher sont effacés tout comme la tendresse. Les femmes dans le porno sont des marchandises conditionnées. Elles sont des poupées de plaisir et des marionnettes sexuelles. Elles sont dénuées de leurs véritables émotions. Le porno n’a rien à voir avec le sexe, si on définit le sexe comme un acte mutuel entre deux partenaires, mais relève de la masturbation, une auto-excitation solitaire et privée d’intimité et d’amour. Le culte du moi — qui est l’essence du porno — est au cœur de la culture corporatiste. Le porno, comme le capitalisme mondial, c’est là où les êtres humains sont envoyés pour mourir.

Il y a quelques personnes à gauche qui saisissent l’immense danger de permettre à la pornographie de remplacer l’intimité, le sexe et l’amour. La majorité de la gauche pense que la pornographie relève de la liberté d’expression, comme s’il était inacceptable d’exploiter financièrement et d’abuser physiquement une femme dans une usine en Chine mais que le faire sur un lieu de tournage d’un film porno était acceptable, comme si la torture à Abu Ghraib — où des prisonniers furent humiliés sexuellement et abusés comme s’ils étaient dans un tournage porno — était intolérable, mais tolérable sur des sites de pornographies commerciaux.

Une nouvelle vague de féministes, qui ont trahi l’ouvrage emblématique de radicales comme Andrea Dworkin, soutiennent que le porno est une forme de libération sexuelle et d’autonomisation. Ces "féministes", qui se basent sur Michel Foucault et Judith Butler, sont les produits attardés du néolibéralisme et du postmodernisme. Le féminisme, pour eux, ne relève plus de la libération de la femme opprimée; il se définit par une poignée de femmes qui ont du succès, sont riches et puissantes — où, comme c’est le cas dans "cinquante nuances de grey", capables d’accrocher un homme puissant et riche. C’est une femme qui a écrit le livre "Cinquante nuances", ainsi que le scénario du film. Une femme a réalisé le film. Une femme dirigeante d’un studio a acheté le film. Cette collusion des femmes fait partie de l’internalisation de l’oppression et de la violence sexuelle, qui s’ancre dans le porno. Dworkin l’avait compris. Elle avait écrit que "la nouvelle pornographie est un vaste cimetière où la Gauche est allée mourir. La Gauche ne peut avoir ses prostituées et leurs politiques."

J’ai rencontré Gail Dines, l’une des radicales les plus prééminentes du pays, dans un petit café à Boston mardi. Elle est l’auteur de "Pornland: Comment le porno a détourné notre sexualité" (“Pornland: How Porn Has Hijacked Our Sexuality”) et est professeure de sociologie et d’études féminines à l’université de Wheelock. Dines, ainsi qu’une poignée d’autres, dont Jensen, dénoncent courageusement une culture aussi dépravée que la Rome de Caligula.

"L’industrie du porno a détourné la sexualité d’une culture toute entière, et dévaste toute une génération de garçons", nous avertit elle. "Et quand vous ravagez une génération de garçons, vous ravagez une génération de filles."

"Quand vous combattez le porno vous combattez le capitalisme mondial", dit-elle. "Les capitaux-risqueurs, les banques, les compagnies de carte de crédit sont tous partie intégrante de cette chaine alimentaire. C’est pourquoi vous ne voyez jamais d’histoires anti-porno. Les médias sont impliqués. Ils sont financièrement mêlés à ces compagnies. Le porno fait partie de tout ceci. Le porno nous dit que nous n’avons plus rien d’humains — limite, intégrité, désir, créativité et authenticité. Les femmes sont réduites à trois orifices et deux mains. Le porno est niché dans la destruction corporatiste de l’intimité et de l’interdépendance, et cela inclut la dépendance à la Terre. Si nous étions une société d’être humains entiers et connectés en véritables communautés, nous ne supporterions pas de regarder du porno. Nous ne supporterions pas de regarder un autre être humain se faire torturer."

"Si vous comptez accumuler la vaste majorité des biens dans une petite poignée de mains, vous devez être sûr d’avoir un bon système idéologique en place qui légitimise la souffrance économique des autres", dit elle. "Et c’est ce que fait le porno. Le porno vous dit que l’inégalité matérielle entre femmes et hommes n’est pas le résultat d’un système économique. Que cela relève de la biologie. Et les femmes, n’étant que des putes et des salopes bonnes au sexe, ne méritent pas l’égalité complète. Le porno c’est le porte-voix idéologique qui légitimise notre système matériel d’inégalités. Le porno est au patriarcat ce que les médias sont au capitalisme."

Pour garder excités les légions de mâles facilement ennuyés, les réalisateurs de porno produisent des vidéos qui sont de plus en plus violentes et avilissantes. "Extreme Associates", qui se spécialise dans les scènes réalistes de viols, ainsi que JM Productions, mettent en avant les souffrances bien réelles endurées par les femmes sur leurs plateaux. JM Productions est un pionnier des vidéos de "baise orale agressive" ou de "baise faciale" comme les séries "étouffements en série", dans lesquelles les femmes s’étouffent et vomissent souvent. Cela s’accompagne de "tournoiements", dans lesquels le mâle enfonce la tête de la femme dans les toilettes puis tire la chasse, après le sexe. La compagnie promet, "toutes les putes subissent le traitement tournoyant. Baise la, puis tire la chasse". Des pénétrations anales répétées et violentes entrainent des prolapsus anaux, une pathologie qui fait s’effondrer les parois internes du rectum de la femme et dépassent de son anus. Cela s’appelle le "rosebudding". Certaines femmes, pénétrées à de multiples reprises par nombre d’hommes lors de tournages pornos, bien souvent après avoir avalé des poignées d’analgésiques, ont besoin de chirurgie reconstructrices anales et vaginales. Les femmes peuvent être affectées par des maladies sexuellement transmissibles et des troubles de stress post-traumatique (TSPT). Et avec la démocratisation du porno — certains participants à des vidéos pornographiques sont traités comme des célébrités dans des émissions comme celles d’Oprah et d’Howard Stern — le comportement promu par le porno, dont le strip-tease, la promiscuité, le sadomasochisme et l’exhibition, deviennent chic. Le porno définit aussi les standards de beauté et de comportements de la femme. Et cela a des conséquences terribles pour les filles.

"On dit aux femmes qu’elles ont deux choix dans notre société", me dit Gail Dines. "Elles sont soit baisables soit invisibles. Être baisable signifie se conformer à la culture du porno, avoir l’air sexy, être soumise et faire ce que veut l’homme. C’est la seule façon d’être visible. Vous ne pouvez pas demander aux filles adolescentes, qui aspirent plus que tout à se faire remarquer, de choisir l’invisibilité."

Rien de tout ça, souligne Dines, n’est un accident. Le porno a émergé de la culture de la marchandise, du besoin de vendre des produits qu’ont les capitalistes corporatistes.

"Dans l’Amérique d’après la seconde guerre mondiale, vous avez l’émergence d’une classe moyenne avec un revenu disponible", explique-t-elle. "Le seul problème c’est que ce groupe est né de parents qui ont connu la dépression et la guerre. Ils ne savaient pas comment dépenser. Ils ne savaient qu’économiser. Ce dont [les capitalistes] avaient besoin pour faire démarrer l’économie c’était de gens prêts à dépenser leur argent pour des choses dont ils n’avaient pas besoin. Pour les femmes ils ont créé les séries télévisées. Une des raisons pour lesquelles les maisons style-ranch furent développées, c’était parce que [les familles] n’avaient qu’une seule télévision. La télévision était dans le salon et les femmes passaient beaucoup de temps dans la cuisine. Il fallait donc diviser la maison de façon à ce qu’elles puissent regarder la télévision depuis la cuisine. Afin qu’elle puisse être éduquée". [Via la télévision]

"Mais qui apprenait aux hommes à dépenser leur argent?" continue-t-elle. "Ce fut Playboy [Magazine]. Ce fut le génie de Hugh Hefner. Il comprit qu’il ne suffisait pas de marchandiser la sexualité, mais qu’il fallait sexualiser les marchandises. Les promesses de Playboy n’étaient pas les filles où les femmes, c’était que si vous achetez autant, si vous consommez au niveau promu par Playboy, alors vous obtenez la récompense, qui sont les femmes. L’étape cruciale à l’obtention de la récompense était la consommation de marchandises. Il a incorporé le porno, qui sexualisait et marchandisait le corps des femmes, dans le manteau de la classe moyenne. Il lui a donné un vernis de respectabilité."

Le VCR, le DVD, et plus tard, Internet ont permis au porno de s’immiscer au sein des foyers. Les images satinées de Playboy, Penthouse et Hustler devinrent fades, voire pittoresques. L’Amérique, et la majeure partie du reste du monde, se pornifia. Les revenus de l’industrie du mondiale du porno sont estimés à 96 milliards de $, le marché des USA comptant pour environ 13 milliards. Il y a, écrit Dines, "420 millions de pages porno sur internet, 4.2 millions de sites Web porno, et 68 millions de requêtes porno dans les moteurs de recherches chaque jour."

Parallèlement à la croissance de la pornographie, il y a eu explosion des violences liées au sexe, y compris des abus domestiques, des viols et des viols en réunion. Un viol est signalé toutes les 6.2 minutes aux USA, mais le total estimé, qui prend en compte les assauts non-rapportés, est peut-être 5 fois plus élevé, comme le souligne Rebecca Solnit dans son livre "Les hommes m’expliquent des choses".

"Il y a tellement d’hommes qui assassinent leurs partenaires et anciennes partenaires, nous avons bien plus de 1000 homicides de ce type chaque année — ce qui signifie que tous les trois ans le nombre total de morts est la première cause d’homicides relevés par la police, bien que personne ne déclare la guerre contre cette forme particulière de terreur", écrit Solnit.

Pendant ce temps-là, le porno est de plus en plus accessible.

"Avec un téléphone mobile vous pouvez fournir du porno aux hommes qui vivent dans les zones densément peuplées du Brésil et de l’Inde", explique Dines. "Si vous avez un seul ordinateur portable dans la famille, l’homme ne peut pas s’assoir au milieu du salon et se masturber. Avec un téléphone, le porno devient portable. L’enfant moyen regarde son porno sur son téléphone mobile".

L’ancienne industrie du porno, qui engrangeait de l’argent grâce aux films, est morte. Les éléments de la production ne génèrent plus de profits. Les distributeurs de porno engrangent la monnaie. Et un distributeur, MindGeek, une compagnie mondiale d’informatique, domine la distribution du porno. Le porno gratuit est utilisé sur internet comme appât par MindGeek pour attirer les spectateurs vers des sites de pay-per-view (paye pour voir). La plupart des utilisateurs de ces sites sont des adolescents. C’est comme, explique Dines, "distribuer des cigarettes à la sortie du collège. Vous les rendez accrocs."

"Autour des âges de 12 à 15 ans vous développez vos modèles sexuels", explique-t-elle. "Vous attrapez [les garçons] quand ils construisent leurs identités sexuelles. Vous les marquez à vie. Si vous commencez par vous masturber devant du porno cruel et violent, alors vous n’allez pas rechercher intimité et connectivité. Les études montrent que les garçons perdent de l’intérêt pour le sexe avec de véritables femmes. Ils ne peuvent maintenir des érections avec des vraies femmes. Dans le porno il n’y a pas de "faire l’amour". Il s’agit de "faire la haine". Il la méprise. Elle le dégoute et le révolte. Si vous amputez l’amour vous devez utiliser quelque chose pour remplir le trou afin de garder le tout intéressant. Ils remplissent ça par la violence, la dégradation, la cruauté et la haine. Et ça aussi ça finit par être ennuyeux. Il faut sans cesse surenchérir. Les hommes jouissent du porno lorsque les femmes sont soumises. Qui est plus soumis que les enfants? La voie du porno mène inévitablement au porno infantile. Et c’est pourquoi des organisations qui combattent le porno infantile sans combattre le porno adulte font une grave erreur."

L’abus inhérent à la pornographie n’est pas remis en question par la majorité des hommes et des femmes. Regardez les entrées du film "cinquante nuances de grey", qui est sorti la veille de la saint valentin et qui prévoit d’engranger plus de 90 millions de $ sur ce week-end de quatre jours (avec la journée du président de ce lundi).

"La pornographie a socialisé une génération d’hommes au visionnage de tortures sexuelles’, explique Dines. Vous n’êtes pas né avec cette capacité. Vous devez être conditionné pour cela. Tout comme vous conditionnez des soldats afin qu’ils tuent. Si vous voulez être violent envers un groupe, vous devez d’abord le déshumaniser. C’est une vieille méthode. Les juifs deviennent des youpins. Les noirs des nègres. Les femmes des salopes. Et personne ne change les femmes en salope mieux que le porno."

Auteur: Hedges Christopher Lynn

Info: truthdig.com, 15 février 2015

[ vingt-et-unième siècle ]

 

Commentaires: 0

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Les particules quantiques ne tournent pas. Alors d'où vient leur spin ?

Le fait que les électrons possèdent la propriété quantique du spin est essentiel pour notre monde tel que nous le connaissons. Pourtant, les physiciens ne pensent pas que ces particules tournent réellement. 

Les électrons sont des petits magiciens compétents. Ils semblent voltiger autour d'un atome sans suivre de chemin particulier, ils semblent souvent être à deux endroits à la fois, et leur comportement dans les micropuces en silicium alimente l'infrastructure informatique du monde moderne. Mais l'un de leurs tours les plus impressionnants est faussement simple, comme toute bonne magie. Les électrons semblent toujours tourner. Tous les électrons jamais observés, qu'ils se déplacent sur un atome de carbone dans votre ongle ou qu'ils se déplacent à toute vitesse dans un accélérateur de particules, ont l'air de faire constamment de petites pirouettes en se déplaçant dans le monde. Sa rotation ne semble jamais ralentir ou accélérer. Peu importe comment un électron est bousculé ou frappé, il semble toujours tourner à la même vitesse. Il possède même un petit champ magnétique, comme devrait le faire un objet en rotation doté d'une charge électrique. Naturellement, les physiciens appellent ce comportement "spin".

Mais malgré les apparences, les électrons ne tournent pas. Ils ne peuvent pas tourner. Prouver qu'il est impossible que les électrons tournent est un problème standard dans tout cours d'introduction à la physique quantique. Si les électrons tournaient suffisamment vite pour expliquer tout le comportement de rotation qu'ils affichent, leurs surfaces se déplaceraient beaucoup plus vite que la vitesse de la lumière (si tant est qu'ils aient des surfaces). Ce qui est encore plus surprenant, c'est que pendant près d'un siècle, cette contradiction apparente a été ignorée par la plupart des physiciens comme étant une autre caractéristique étrange du monde quantique, qui ne mérite pas qu'on s'y attarde.

Pourtant, le spin est profondément important. Si les électrons ne semblaient pas tourner, votre chaise s'effondrerait pour ne plus représenter qu'une fraction minuscule de sa taille. Vous vous effondreriez aussi - et ce serait le moindre de vos problèmes. Sans le spin, c'est tout le tableau périodique des éléments qui s'effondrerait, et toute la chimie avec. En fait, il n'y aurait pas de molécules du tout. Le spin n'est donc pas seulement l'un des meilleurs tours de magie des électrons, c'est aussi l'un des plus importants. Et comme tout bon magicien, les électrons n'ont jamais dit à personne comment ils faisaient ce tour. Mais aujourd'hui, une nouvelle explication du spin est peut-être en train de se profiler à l'horizon, une explication qui tire le rideau et montre comment la magie opère.

UNE DÉCOUVERTE VERTIGINEUSE

La rotation a toujours été une source de confusion. Même les premières personnes qui ont développé l'idée du spin pensaient qu'elle devait être fausse. En 1925, deux jeunes physiciens hollandais, Samuel Goudsmit et George Uhlenbeck, s'interrogeaient sur les derniers travaux du célèbre (et célèbre) physicien Wolfgang Pauli. Pauli, dans une tentative d'expliquer la structure des spectres atomiques et du tableau périodique, avait récemment postulé que les électrons avaient une "double valeur non descriptible classiquement". Mais Pauli n'avait pas dit à quelle propriété physique de l'électron sa nouvelle valeur correspondait, et Goudsmit et Uhlenbeck se demandaient ce que cela pouvait être.

Tout ce qu'ils savaient - tout le monde le savait à l'époque - c'est que la nouvelle valeur de Pauli était associée à des unités discrètes d'une propriété bien connue de la physique newtonienne classique, appelée moment angulaire. Le moment angulaire est simplement la tendance d'un objet en rotation à continuer de tourner. C'est ce qui fait que les toupies tournent et que les bicyclettes restent droites. Plus un objet tourne vite, plus il a de moment cinétique, mais la forme et la masse de l'objet ont aussi leur importance. Un objet plus lourd a plus de moment cinétique qu'un objet plus léger qui tourne aussi vite, et un objet qui tourne avec plus de masse sur les bords a plus de moment cinétique que si sa masse était concentrée en son centre.

Les objets peuvent avoir un moment angulaire sans tourner. Tout objet qui tourne autour d'un autre objet, comme la Terre qui tourne autour du soleil ou un trousseau de clés qui se balance autour de votre doigt sur un cordon, a un certain moment angulaire. Mais Goudsmit et Uhlenbeck savaient que ce type de moment angulaire ne pouvait pas être la source du nouveau nombre de Pauli. Les électrons semblent effectivement se déplacer autour du noyau atomique, retenus par l'attraction entre leur charge électrique négative et l'attraction positive des protons du noyau. Mais le moment angulaire que ce mouvement leur confère était déjà bien pris en compte et ne pouvait pas être le nouveau nombre de Pauli. Les physiciens savaient également qu'il existait déjà trois nombres associés à l'électron, qui correspondaient aux trois dimensions de l'espace dans lesquelles il pouvait se déplacer. Un quatrième nombre signifiait une quatrième façon dont l'électron pouvait se déplacer. Les deux jeunes physiciens pensaient que la seule possibilité était que l'électron lui-même tourne, comme la Terre qui tourne sur son axe autour du soleil. Si les électrons pouvaient tourner dans l'une des deux directions - dans le sens des aiguilles d'une montre ou dans le sens inverse - cela expliquerait la "bivalence" de Pauli.

Excités, Goudsmit et Uhlenbeck rédigent leur nouvelle idée et la montrent à leur mentor, Paul Ehrenfest. Ehrenfest, un ami proche d'Einstein et un formidable physicien à part entière, trouve l'idée intrigante. Tout en la considérant, il dit aux deux jeunes hommes enthousiastes d'aller consulter quelqu'un de plus âgé et de plus sage : Hendrik Antoon Lorentz, le grand manitou de la physique néerlandaise, qui avait anticipé une grande partie du développement de la relativité restreinte deux décennies plus tôt et qu'Einstein lui-même tenait en très haute estime.

Mais Lorentz est moins impressionné par l'idée de spin qu'Ehrenfest. Comme il l'a fait remarquer à Uhlenbeck, on sait que l'électron est très petit, au moins 3 000 fois plus petit qu'un atome - et on sait déjà que les atomes ont un diamètre d'environ un dixième de nanomètre, soit un million de fois plus petit que l'épaisseur d'une feuille de papier. L'électron étant si petit, et sa masse encore plus petite - un milliardième de milliardième de milliardième de gramme - il était impossible qu'il tourne assez vite pour fournir le moment angulaire que Pauli et d'autres recherchaient. En fait, comme Lorentz l'a dit à Uhlenbeck, la surface de l'électron devrait se déplacer dix fois plus vite que la vitesse de la lumière, une impossibilité absolue.

Défait, Uhlenbeck retourne voir Ehrenfest et lui annonce la nouvelle. Il demande à Ehrenfest de supprimer l'article, mais on lui répond qu'il est trop tard, car son mentor a déjà envoyé l'article pour publication. "Vous êtes tous les deux assez jeunes pour pouvoir vous permettre une stupidité", a dit Ehrenfest. Et il avait raison. Malgré le fait que l'électron ne pouvait pas tourner, l'idée du spin était largement acceptée comme correcte, mais pas de la manière habituelle. Plutôt qu'un électron qui tourne réellement, ce qui est impossible, les physiciens ont interprété la découverte comme signifiant que l'électron portait en lui un certain moment angulaire intrinsèque, comme s'il tournait, même s'il ne pouvait pas le faire. Néanmoins, l'idée était toujours appelée "spin", et Goudsmit et Uhlenbeck ont été largement salués comme les géniteurs de cette idée.

Le spin s'est avéré crucial pour expliquer les propriétés fondamentales de la matière. Dans le même article où il avait proposé son nouveau nombre à deux valeurs, Pauli avait également suggéré un "principe d'exclusion", à savoir que deux électrons ne pouvaient pas occuper exactement le même état. S'ils le pouvaient, alors chaque électron d'un atome tomberait simplement dans l'état d'énergie le plus bas, et pratiquement tous les éléments se comporteraient presque exactement de la même manière les uns que les autres, détruisant la chimie telle que nous la connaissons. La vie n'existerait pas. L'eau n'existerait pas. L'univers serait simplement rempli d'étoiles et de gaz, dérivant dans un cosmos ennuyeux et indifférent sans rencontrer la moindre pierre. En fait, comme on l'a compris plus tard, toute matière solide, quelle qu'elle soit, serait instable. Bien que l'idée de Pauli soit clairement correcte, la raison pour laquelle les électrons ne pouvaient pas partager des états n'était pas claire. Comprendre l'origine du principe d'exclusion de Pauli permettrait d'expliquer tous ces faits profonds de la vie quotidienne.

La réponse à cette énigme se trouvait dans le spin. On découvrit bientôt que le spin était une propriété de base de toutes les particules fondamentales, et pas seulement des électrons, et qu'il était étroitement lié au comportement de ces particules en groupes. En 1940, Pauli et le physicien suisse Markus Fierz ont prouvé que lorsque la mécanique quantique et la relativité restreinte d'Einstein étaient combinées, cela conduisait inévitablement à un lien entre le spin et le comportement statistique des groupes. Le principe d'exclusion de Pauli n'était qu'un cas particulier de ce théorème de la statistique du spin, comme on l'a appelé. Ce théorème est un "fait puissant sur le monde", comme le dit le physicien Michael Berry. "Il est à la base de la chimie, de la supraconductivité, c'est un fait très fondamental". Et comme tant d'autres faits fondamentaux en physique, le spin s'est avéré utile sur le plan technologique également. Dans la seconde moitié du XXe siècle, le spin a été exploité pour développer des lasers, expliquer le comportement des supraconducteurs et ouvrir la voie à la construction d'ordinateurs quantiques.

VOIR AU-DELÀ DU SPIN

Mais toutes ces fabuleuses découvertes, applications et explications laissent encore sur la table la question de Goudsmit et Uhlenbeck : qu'est-ce que le spin ? Si les électrons doivent avoir un spin, mais ne peuvent pas tourner, alors d'où vient ce moment angulaire ? La réponse standard est que ce moment est simplement inhérent aux particules subatomiques et ne correspond à aucune notion macroscopique de rotation.

Pourtant, cette réponse n'est pas satisfaisante pour tout le monde. "Je n'ai jamais aimé l'explication du spin donnée dans un cours de mécanique quantique", déclare Charles Sebens, philosophe de la physique à l'Institut de technologie de Californie. On vous le présente et vous vous dites : "C'est étrange. Ils agissent comme s'ils tournaient, mais ils ne tournent pas vraiment ? Je suppose que je peux apprendre à travailler avec ça". Mais c'est étrange."

Récemment, cependant, Sebens a eu une idée. "Dans le cadre de la mécanique quantique, il semble que l'électron ne tourne pas", dit-il. Mais, ajoute-t-il, "la mécanique quantique n'est pas notre meilleure théorie de la nature. La théorie des champs quantiques est une théorie plus profonde et plus précise."

La théorie quantique des champs est l'endroit où le monde quantique des particules subatomiques rencontre l'équation la plus célèbre du monde : E = mc2, qui résume la découverte d'Einstein selon laquelle la matière peut se transformer en énergie et vice versa. (La théorie quantique des champs est également à l'origine du théorème de la statistique du spin). C'est à partir de cette propriété que lorsque des particules subatomiques interagissent, de nouvelles particules sont souvent créées à partir de leur énergie, et les particules existantes peuvent se désintégrer en quelque chose d'autre. La théorie quantique des champs traite ce phénomène en décrivant les particules comme provenant de champs qui imprègnent tout l'espace-temps, même l'espace vide. Ces champs permettent aux particules d'apparaître et de disparaître, conformément aux règles strictes de la relativité restreinte d'Einstein et aux lois probabilistes du monde quantique.

Et ce sont ces champs, selon Sebens, qui pourraient contenir la solution à l'énigme du spin. "L'électron est habituellement considéré comme une particule", explique-t-il. "Mais dans la théorie quantique des champs, pour chaque particule, il existe une façon de la considérer comme un champ." En particulier, l'électron peut être considéré comme une excitation dans un champ quantique connu sous le nom de champ de Dirac, et ce champ pourrait être ce qui porte le spin de l'électron. "Il y a une véritable rotation de l'énergie et de la charge dans le champ de Dirac", dit Sebens. Si c'est là que réside le moment angulaire, le problème d'un électron tournant plus vite que la vitesse de la lumière disparaît ; la région du champ portant le spin de l'électron est bien plus grande que l'électron supposé ponctuel lui-même. Ainsi, selon Sebens, d'une certaine manière, Pauli et Lorentz avaient à moitié raison : il n'y a pas de particule qui tourne. Il y a un champ tournant, et c'est ce champ qui donne naissance aux particules.

UNE QUESTION SANS RÉPONSE ?

Jusqu'à présent, l'idée de Sebens a produit quelques remous, mais pas de vagues. Pour ce qui est de savoir si les électrons tournent, "je ne pense pas qu'il s'agisse d'une question à laquelle on puisse répondre", déclare Mark Srednicki, physicien à l'université de Californie à Santa Barbara. "Nous prenons un concept qui trouve son origine dans le monde ordinaire et nous essayons de l'appliquer à un endroit où il ne s'applique plus vraiment. Je pense donc que ce n'est vraiment qu'une question de choix, de définition ou de goût pour dire que l'électron tourne vraiment." Hans Ohanian, physicien à l'université du Vermont qui a réalisé d'autres travaux sur le spin des électrons, souligne que la version originale de l'idée de Sebens ne fonctionne pas pour l'antimatière.

Mais tous les physiciens ne sont pas aussi dédaigneux. Selon Sean Carroll, physicien à l'université Johns Hopkins et à l'Institut Santa Fe, "la formulation conventionnelle de notre réflexion sur le spin laisse de côté un élément potentiellement important". "Sebens est tout à fait sur la bonne voie, ou du moins fait quelque chose de très, très utile dans le sens où il prend très au sérieux l'aspect champ de la théorie quantique des champs." Mais, souligne Carroll, "les physiciens sont, au fond, des pragmatiques..... Si Sebens a raison à 100 %, les physiciens vous diront : "D'accord, mais qu'est-ce que cela m'apporte ?"

Doreen Fraser, philosophe de la théorie des champs quantiques à l'université de Waterloo, au Canada, se fait l'écho de ce point de vue. "Je suis ouverte à ce projet que Sebens a de vouloir forer plus profondément pour avoir une sorte d'intuition physique pour aller avec le spin", dit-elle. "Vous avez cette belle représentation mathématique ; vous voulez avoir une image physique intuitive pour l'accompagner." En outre, une image physique pourrait également déboucher sur de nouvelles théories ou expériences qui n'ont jamais été réalisées auparavant. "Pour moi, ce serait le test pour savoir si c'est une bonne idée."

Il est trop tôt pour dire si les travaux de M. Sebens porteront ce genre de fruits. Et bien qu'il ait rédigé un article sur la manière de résoudre la préoccupation d'Ohanian concernant l'antimatière, d'autres questions connexes restent en suspens. "Il y a beaucoup de raisons d'aimer" l'idée du champ, dit Sebens. "Je prends cela plus comme un défi que comme un argument massue contre elle."

Auteur: Becker Adam

Info: Scientific American, November 22, 2022

[ approfondissement ]

 

Commentaires: 0

Ajouté à la BD par miguel