Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 25
Temps de recherche: 0.0411s

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel

boomers vs wokes

Kompromat à la française - Pour avoir réussi un coup de maître – faire signer 50 artistes pour défendre Gérard Depardieu – Yannis Ezziadi est à son tour lynché. Cette affaire restera un cas d’école de la mécanique de la Terreur qui veut en finir avec toute singularité.



Pouvez-vous expliquer ces blagues ? Dans le brouhaha malveillant orchestré autour de la tribune de 50 artistes et assimilés pour Depardieu et de son auteur, notre ami Yannis Ezziadi, cette question que lui a adressée Marine Turchi dit la vérité la plus profonde de toute cette affaire (et de pas mal d’autres).



Dans le monde rêvé des néo-féministes en particulier et des wokistes en général, tout passe au hachoir de l’esprit de sérieux : l’art, la littérature, le sexe (abaissé à un ennuyeux pacte contractuel) et l’humour lui-même, prié de participer à la rééducation des masses boomeuses et dépravées.



Pour bien faire comprendre la dangerosité du gars, il me faut reproduire quelques-unes de ces plaisanteries citées à comparaître. Pour vous, c’est cadeau. D’abord, il y a cette citation de Courteline, postée en 2013 (les fouilleurs de poubelles numériques sont consciencieux):  L’homme est le seul mâle qui batte sa femelle. Il est donc le plus brutal des mâles, à moins que, de toutes les femelles, la femme soit la plus insupportable. Le petit malin (il avait 22 ans), avait assorti la citation de ce commentaire :  Je vais me faire lyncher, mais c’est tellement drôle.  Plus grave, car sortie du cerveau malade de l’auteur, cette blague de février 2021 : Pour les accusations de violences sexuelles, heureusement, ce ne sera pas comme pour le Covid. Une fois que la majorité des hommes aura été accusée de viol et d’inceste, ils seront peut-être protégés par l’immunité collective. C’est le seul espoir… Espoir fortement déçu. Si ça vous a fait marrer, votre compte est bon : vous êtes un défenseur des violences sexistes-et-sexuelles et un amateur de violences conjugales. Ou le contraire.



Vous avez le droit de rire, à condition que ce rire ne soit jamais traversé de mauvaises pensées. J’aimerais bien savoir à quoi sert l’humour s’il n’est pas le sauf-conduit de nos mauvaises pensées, le refuge du négatif. Si ça se trouve, nos mangeuses d’hommes n’ont jamais de mauvaises pensées. Les pauvres. Et pauvres de nous. Le règne de la positivité, du premier degré, de la transparence est ce qui s’apparente le plus au meilleur des mondes. C’est-à-dire à l’enfer.



Mais je reviens à mes moutons, en l’occurrence au bouc. Pour ceux qui l’ignorent, Marine Turchi, qui officie à Mediapart, est à la nouvelle terreur féministe ce que Vychinski était au stalinisme. Procureur implacable, elle est capable d’écouter des dizaines d’heure du Masque et la plume , pour révéler qu’on y a dit 32 fois salope ou entendu 41 blagues sexistes (les chiffres sont fantaisistes). Il faut lui reconnaître  une certaine conscience professionnelle. Turchi monte ses dossiers. Et bien sûr, elle donne la parole à l’accusé, parole qui se retrouve généralement noyée entre les témoignages accusatoires. Turchi exerce sa charge avec une certaine froideur, alors qu’Ariane Chemin, qui requiert au Monde, semble animée par la passion de nuire. Mais les deux, formées à l’école Plenel, ont le même talent pour construire et imposer un récit totalement fantasmé des faits qu’elles évoquent. En l’occurrence, elles ont réussi à faire passer l’initiative d’un franc-tireur baroque et flamboyant pour une opération d’extrême droite, orchestrée par "la galaxie Bolloré " pour faire main basse sur le monde de la culture – galaxie, ça vous a un petit air Guerre des étoiles, bien contre mal etc. Ces affabulations complotistes ont suffi à déclencher une chasse à l’homme.



Pour les historiens qui étudieront le totalitarisme sans goulag (analysé par Mathieu Bock-Côté dans son dernier livre) et se demanderont comment des peuples cultivés ont pu se laisser déposséder de leurs libertés sans la moindre contrainte militaire ou physique, l’affaire de la pétition Depardieu sera un cas d’école. Un modèle d’efficacité de la mécanique de la terreur.



Premier acte : panique au quartier général.



Cinquante-six artistes et producteurs dénoncent le lynchage de Depardieu. Un bras d’honneur à la loi du Milieu. Un artiste peut à la limite se taire (bien que cela soit parfois suspect). Mais s’il l’ouvre, il n’a qu’un droit : celui d’énoncer les poncifs du progressisme prêchi-prêcheur, en commençant par quelques génuflexions devant la révolution #metoo. S’il veut cocher toutes les cases, il peut lutter contre la loi scélérate sur les retraites (Bosser jusqu’à 63 ans, jamais !), dénoncer les crimes climatiques des riches et des ploucs, manifester (dans son salon) pour l’accueil des migrants. Cependant, s’il n’a pas le temps de dispenser sa compassion à tout-va, une cause contient toutes les autres, la lutte contre l’extrême droite. C’est la formule magique, la carte du Parti. Qui, en plus d’offrir à son détenteur la considération de France Inter lui permet de bosser.



Sans la sortie d’Emmanuel Macron, qui a déclaré quelques jours plus tôt que Depardieu faisait la fierté de la France, l’affaire en serait peut-être restée là. Du reste, sans l’encouragement présidentiel, les signataires auraient certainement été moins nombreux et moins titrés. Cette fois, il ne s’agit pas des sans-grades de l’intermittence du spectacle, ni de réacs estampillés, mais de stars. Certaines sont sur le retour ou en fin de carrière (ce qui permettra à d’élégants plumitifs de calculer l’âge moyen des signataires), d’autres sont inconnus, mais il y a aussi des comédiens bankables, dont les noms aident à monter un film.



C’est bien ce qui enrage le clergé médiatico-culturel, habitué à voir ses excommunications et proscriptions appliquées sans protestations. La volaille qui fait l’opinion sent le danger : sous peine de voir son pouvoir d’intimidation ébranlé, il lui faut frapper fort. On peut compter sur la police politique.



Acte II. On discrédite le message.



C’est simple : il n’y a qu’à saucissonner le texte en lui faisant dire ce qu’il ne dit pas – que Depardieu a tous les droits, y compris de cuissage. Peut-être y a-t-il des maladresses de rédaction, le texte n’établissant pas assez clairement la différence entre des accusations de viol et des blagues obscènes. Reste que 55 personnes l’ont signé en connaissance de cause – le seul à avoir longuement essayé d’introduire des modifications a été Yvan Attal qui, malgré ces désaccords, a maintenu sa signature. Des agents, des avocats l’ont lu, beaucoup ont dissuadé leurs clients de signer, d’autres ont approuvé des deux mains.



A lire aussi, Dominique Labarrière: Affaire Depardieu: la bourgeoisie de farces et attrapes dans tous ses états



Que ce texte choque, c’est naturel, mais pas pour les raisons invoquées par les milices vigilantes qui sévissent dans les égouts numériques. Le scandale c’est que des artistes puissent adopter le point de vue de l’art plutôt que celui de la morale. Qu’ils affirment clairement que le génie de l’artiste leur importe plus que les agissements de l’homme – cela ne signifie pas que l’un excuse les autres. L’histoire retiendra-t-elle de Picasso qu’il a mal traité ses femmes ou été un artiste de génie ? La réponse à cette question dépendra de l’issue de la guerre idéologique entre les déconstructeurs et les héritiers. En attendant, ce ne sont pas des hommes déconstruits qui ont fait l’histoire de l’art. Ni l’histoire tout court.



Les maîtresses d’école[1] qui surveillent le débat public n’entendent rien à cette grammaire qui échappe aux cadres rigides structurant leur pensée. Elles se contentent de distribuer froncements de sourcils et coups de règles aux signataires. Ils n’ont pas un mot pour les victimes (qui sont en réalité des plaignantes), preuve qu’ils sont solidaires des agresseurs, violeurs et autres pédophiles. Ces premières sommations entraînent déjà quelques défections, sur le mode " J’avais mal lu " voire " J’ai signé sans lire ". Mais croyez-le bien je pense tous les jours aux violences contre les femmes.



Acte III. On brûle le messager.



Là, on ne rigole plus. La hauteur de l’affront exige une victime expiatoire. Après les préliminaires, se met en branle une mécanique proprement totalitaire, de celles qui broient les individus pour la bonne cause. Dans les sacristies médiatiques, on découvre avec fureur que le diablus ex machina de cette sorcellerie est un quasi inconnu (sauf pour les heureux lecteurs de Causeur et les afficionados). Voilà un type qui prétend avoir, avec ses petits bras, convaincu des vedettes comme Bertrand Blier, Carole Bouquet ou Pierre Richard de prendre la défense d’un homme que Le Monde et Mediapart ont pourtant condamné à la mort sociale.



Il faut lui donner une leçon, à lui et à tous ceux qui l’ont suivi. Leur faire passer l’envie de récidiver. On s’intéresse donc à sa personne, débitée en tranches avec encore plus de malveillance que son texte. De ce point de vue, l’article d’Ariane Chemin mérite la médaille d’or de la dégueulasserie journalistique. Avec quelques micro-bouts de vérité, elle dresse un portrait totalement mensonger intitulé : À la source de la tribune pour Depardieu, un comédien proche des sphères identitaires et réactionnaires. Non seulement il écrit dans Causeur, mensuel dépeint, selon les médias ou les jours, comme d’extrême droite, conservateur, ultra-conservateur ou réactionnaire, mais Chemin souligne qu’il est ami avec Sarah Knafo et Eric Zemmour et qu’il fait la fête avec votre servante. À l’évidence, pour Chemin, l’amitié ne saurait tolérer la divergence. Quant à nos fêtes, elle doit s’imaginer qu’on y récite des horreurs racistes et sexistes affublés de chapeaux pointus. Nous passons en effet d’excellentes soirées à rire, nous disputer, boire, manger, danser, chanter et rire encore. Tout ce rire, c’est suspect, chef. Surtout entre gens qui ne pensent pas la même chose.



Les articles d’Ezziadi sont passés à la même moulinette diffamatoire. Le texte magnifique dans lequel il démonte la mécanique complotiste qui lui a retourné le cerveau à l’âge de 18 ans devient une preuve à charge : le gars est un « dieudonniste repenti » (ce qui signifie dieudonniste toujours). Sa charge contre Jean-Paul Rouve qui joue Matzneff en monstre et se dit fier de ne rien comprendre à son personnage est présentée comme une défense de l’écrivain à nymphettes. Pour sa défense, Ezziadi cite Bruno Ganz qui, dans la Chute, campait un Hitler diablement humain et fut honoré pour cela. Certains en concluent sans doute qu’en prime, il est nazi. Son reportage sur l’islamisation rampante de Nangis, paisible ville de Seine et Marne fait de lui un adepte de " la théorie complotiste-extrême-droite du Grand remplacement " sans que quiconque se donne la peine de réfuter les faits qu’il décrit – et pour cause. Et quand il affirme, sur LCI, que les hommes ont peur, son interlocutrice, une péronnelle blonde à l’air méchant, le toise, semblant penser qu’ils ont bien raison d’avoir peur, toi le premier. Les ligues de vertu avaient fabriqué un monstre avec Depardieu. En une semaine, elles accouchent d’une nouvelle figure du mal et du mâle à abattre.



Acte IV. La litanie des autocritiques.



Pour nombre de signataires, la pression morale et financière est insupportable. Ils n’ont pas l’habitude des flots de haine et d’injures qui s’abattent sur eux. Leurs agents les engueulent, ils se font pourrir par leurs neveux woke lors des dîners de famille, des directeurs de théâtre, des producteurs, des diffuseurs, des réalisateurs menacent à mots couverts. Ils doivent lâcher l’ennemi du Parti sous peine d’être purgé avec lui. Certains, honteux de leur propre reculade, se retirent sur la pointe des pieds, parfois après avoir adressé en privé à Ezziadi un signe amical – je suis désolé mais je n’ai pas le choix. Jacques Weber pleurniche, écrivant curieusement que sa signature était un  " autre viol  " – son respect de la présomption d’innocence aura duré deux semaines. D’autres en rajoutent dans l’adoration de la Révolution, braillent comme des pourceaux, jurant qu’ils ont été trahis, manipulés, envoutés par un petit comploteur d’extrême droite. Puisque Le Monde le dit, il ne leur vient même pas à l’esprit de se poser une question. Comme me l’écrit Jonathan Siksou, " si Ariane Chemin ou BFM avait dit que Yannis était une table à roulettes ou un pélican, tout le monde le croirait ". Ils ont signé parce qu’ils croyaient que le vent avait tourné. Ils se replacent naturellement dans le sens du vent.



Le plus inquiétant est que la machine à détruire s’en prenne à un jeune homme qui n’a aucun pouvoir, sinon celui de son grand charme et du plaisir que ses amis prennent à sa compagnie. Contrairement aux consœurs qui peuvent encore briser des carrières et réduire des hommes au chômage sur la seule foi d’accusations (les femmes ne mentent jamais), Yannis Ezziadi ne peut nuire à personne. Il a effectivement monté son attentat contre la bienséance avec sa seule force de conviction. Il s’est pendu au téléphone, d’abord avec les amis, puis les amis d’amis, chacun des signataires a donné ses contacts, certains, dit « oui » puis « non » en fonction de leurs dîners de la veille.



Il n’est guère étonnant que ce dandy fantastiquement drôle qui peut pleurer de bonheur en écoutant un opéra ou en regardant une corrida enrage les vestales fanatiques de la religion des femmes et tous ceux qui, terrifiés, psalmodient derrière elles. Yannis Ezziadi possède quelque chose que ces esprits policiers haïssent parce qu’ils y ont renoncé. Cela s’appelle la liberté.



Epilogue. Le Parti a toujours raison.



Les tricoteuses féministes ont réduit au silence tous ceux qui auraient pu, qui auraient dû, se lever contre ce procès de Moscou. Beaucoup se taisent par peur d’être à leur tour soupçonnés, donc condamnés. On peut le comprendre mais ils ont tort. Pour peu qu’ils aient une sexualité vaguement débridée (quoique parfaitement légale), ils finiront, eux aussi, par être arrêtés un matin, même sans avoir jamais rien fait. Si toutes les stars de la tribune Depardieu avaient tenu bon et adressé un grand bras d’honneur aux maitres-chanteurs, le rapport de forces aurait changé. Un peu de courage ne nuit pas.



Oui, il y a des raisons d’avoir peur. L’inquisition a gagné une bataille. Si demain, plus personne n’ose sortir des clous de la bienséance, si nous acceptons docilement que Polanski, Depardieu et tant d’autres soient brûlés en place publique, que leurs œuvres soient bannies des écrans et des mémoires, elle règnera sur nos esprits. Quand on a peur de dire ce qu’on pense, on finit par avoir peur de penser.



[1] Des deux sexes mais le féminin pour tout le monde est ici parfaitement justifié

Auteur: Lévy Elisabeth

Info: Causeur, 4 janvier 2024

[ pouvoir sémantique ] [ Gaule ] [ parisianisme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

Une nouvelle approche du calcul réinvente l'intelligence artificielle

Par l'imprégnation d'énormes vecteurs de sens sémantique, nous pouvons amener les machines à raisonner de manière plus abstraite et plus efficace qu'auparavant.

M
algré le succès retentissant de ChatGPT et d'autres grands modèles de langage, les réseaux de neurones artificiels (ANN) qui sous-tendent ces systèmes pourraient être sur la mauvaise voie.

D'une part, les ANN sont "super gourmands en énergie", a déclaré Cornelia Fermüller , informaticienne à l'Université du Maryland. "Et l'autre problème est [leur] manque de transparence." De tels systèmes sont si compliqués que personne ne comprend vraiment ce qu'ils font, ou pourquoi ils fonctionnent si bien. Ceci, à son tour, rend presque impossible de les amener à raisonner par analogie, ce que font les humains - en utilisant des symboles pour les objets, les idées et les relations entre eux.

Ces lacunes proviennent probablement de la structure actuelle des RNA et de leurs éléments constitutifs : les neurones artificiels individuels. Chaque neurone reçoit des entrées, effectue des calculs et produit des sorties. Les RNA modernes sont des réseaux élaborés de ces unités de calcul, formés pour effectuer des tâches spécifiques.

Pourtant, les limites des RNA sont évidentes depuis longtemps. Considérez, par exemple, un ANN qui sépare les cercles et les carrés. Une façon de le faire est d'avoir deux neurones dans sa couche de sortie, un qui indique un cercle et un qui indique un carré. Si vous voulez que votre ANN discerne également la couleur de la forme - bleu ou rouge - vous aurez besoin de quatre neurones de sortie : un pour le cercle bleu, le carré bleu, le cercle rouge et le carré rouge. Plus de fonctionnalités signifie encore plus de neurones.

Cela ne peut pas être la façon dont notre cerveau perçoit le monde naturel, avec toutes ses variations. "Vous devez proposer que, eh bien, vous avez un neurone pour toutes les combinaisons", a déclaré Bruno Olshausen , neuroscientifique à l'Université de Californie à Berkeley. "Donc, vous auriez dans votre cerveau, [disons,] un détecteur Volkswagen violet."

Au lieu de cela, Olshausen et d'autres soutiennent que l'information dans le cerveau est représentée par l'activité de nombreux neurones. Ainsi, la perception d'une Volkswagen violette n'est pas codée comme les actions d'un seul neurone, mais comme celles de milliers de neurones. Le même ensemble de neurones, tirant différemment, pourrait représenter un concept entièrement différent (une Cadillac rose, peut-être).

C'est le point de départ d'une approche radicalement différente de l'informatique connue sous le nom d'informatique hyperdimensionnelle. La clé est que chaque élément d'information, comme la notion d'une voiture, ou sa marque, son modèle ou sa couleur, ou tout cela ensemble, est représenté comme une seule entité : un vecteur hyperdimensionnel.

Un vecteur est simplement un tableau ordonné de nombres. Un vecteur 3D, par exemple, comprend trois nombres : les coordonnées x , y et z d'un point dans l'espace 3D. Un vecteur hyperdimensionnel, ou hypervecteur, pourrait être un tableau de 10 000 nombres, par exemple, représentant un point dans un espace à 10 000 dimensions. Ces objets mathématiques et l'algèbre pour les manipuler sont suffisamment flexibles et puissants pour amener l'informatique moderne au-delà de certaines de ses limites actuelles et favoriser une nouvelle approche de l'intelligence artificielle.

"C'est ce qui m'a le plus enthousiasmé, pratiquement de toute ma carrière", a déclaré Olshausen. Pour lui et pour beaucoup d'autres, l'informatique hyperdimensionnelle promet un nouveau monde dans lequel l'informatique est efficace et robuste, et les décisions prises par les machines sont entièrement transparentes.

Entrez dans les espaces de grande dimension

Pour comprendre comment les hypervecteurs rendent le calcul possible, revenons aux images avec des cercles rouges et des carrés bleus. Nous avons d'abord besoin de vecteurs pour représenter les variables SHAPE et COLOR. Ensuite, nous avons également besoin de vecteurs pour les valeurs pouvant être affectées aux variables : CERCLE, CARRÉ, BLEU et ROUGE.

Les vecteurs doivent être distincts. Cette distinction peut être quantifiée par une propriété appelée orthogonalité, ce qui signifie être à angle droit. Dans l'espace 3D, il existe trois vecteurs orthogonaux entre eux : un dans la direction x , un autre dans la direction y et un troisième dans la direction z . Dans un espace à 10 000 dimensions, il existe 10 000 vecteurs mutuellement orthogonaux.

Mais si nous permettons aux vecteurs d'être presque orthogonaux, le nombre de ces vecteurs distincts dans un espace de grande dimension explose. Dans un espace à 10 000 dimensions, il existe des millions de vecteurs presque orthogonaux.

Créons maintenant des vecteurs distincts pour représenter FORME, COULEUR, CERCLE, CARRÉ, BLEU et ROUGE. Parce qu'il y a tellement de vecteurs presque orthogonaux possibles dans un espace de grande dimension, vous pouvez simplement assigner six vecteurs aléatoires pour représenter les six éléments ; ils sont presque garantis d'être presque orthogonaux. "La facilité de créer des vecteurs presque orthogonaux est une raison majeure d'utiliser la représentation hyperdimensionnelle", a écrit Pentti Kanerva , chercheur au Redwood Center for Theoretical Neuroscience de l'Université de Californie à Berkeley, dans un article influent de 2009.

L'article s'appuyait sur des travaux effectués au milieu des années 1990 par Kanerva et Tony Plate, alors étudiant au doctorat avec Geoff Hinton à l'Université de Toronto. Les deux ont développé indépendamment l'algèbre pour manipuler les hypervecteurs et ont fait allusion à son utilité pour le calcul en haute dimension.

Étant donné nos hypervecteurs pour les formes et les couleurs, le système développé par Kanerva et Plate nous montre comment les manipuler à l'aide de certaines opérations mathématiques. Ces actions correspondent à des manières de manipuler symboliquement des concepts.

La première opération est la multiplication. C'est une façon de combiner les idées. Par exemple, multiplier le vecteur FORME par le vecteur CERCLE lie les deux en une représentation de l'idée "LA FORME est CERCLE". Ce nouveau vecteur "lié" est presque orthogonal à la fois à SHAPE et à CIRCLE. Et les composants individuels sont récupérables - une caractéristique importante si vous souhaitez extraire des informations à partir de vecteurs liés. Étant donné un vecteur lié qui représente votre Volkswagen, vous pouvez dissocier et récupérer le vecteur pour sa couleur : VIOLET.

La deuxième opération, l'addition, crée un nouveau vecteur qui représente ce qu'on appelle une superposition de concepts. Par exemple, vous pouvez prendre deux vecteurs liés, "SHAPE is CIRCLE" et "COLOR is RED", et les additionner pour créer un vecteur qui représente une forme circulaire de couleur rouge. Là encore, le vecteur superposé peut être décomposé en ses constituants.

La troisième opération est la permutation ; cela implique de réorganiser les éléments individuels des vecteurs. Par exemple, si vous avez un vecteur tridimensionnel avec des valeurs étiquetées x , y et z , la permutation peut déplacer la valeur de x vers y , y vers z et z vers x. "La permutation vous permet de construire une structure", a déclaré Kanerva. "Ça permet de gérer des séquences, des choses qui se succèdent." Considérons deux événements, représentés par les hypervecteurs A et B. Nous pouvons les superposer en un seul vecteur, mais cela détruirait les informations sur l'ordre des événements. La combinaison de l'addition et de la permutation préserve l'ordre ; les événements peuvent être récupérés dans l'ordre en inversant les opérations.

Ensemble, ces trois opérations se sont avérées suffisantes pour créer une algèbre formelle d'hypervecteurs permettant un raisonnement symbolique. Mais de nombreux chercheurs ont été lents à saisir le potentiel de l'informatique hyperdimensionnelle, y compris Olshausen. "Cela n'a tout simplement pas été pris en compte", a-t-il déclaré.

Exploiter le pouvoir

En 2015, un étudiant d'Olshausen nommé Eric Weiss a démontré un aspect des capacités uniques de l'informatique hyperdimensionnelle. Weiss a compris comment représenter une image complexe comme un seul vecteur hyperdimensionnel contenant des informations sur tous les objets de l'image, y compris leurs propriétés, telles que les couleurs, les positions et les tailles.

"Je suis pratiquement tombé de ma chaise", a déclaré Olshausen. "Tout d'un coup, l'ampoule s'est allumée."

Bientôt, d'autres équipes ont commencé à développer des algorithmes hyperdimensionnels pour reproduire des tâches simples que les réseaux de neurones profonds avaient commencé à effectuer environ deux décennies auparavant, comme la classification d'images.

Considérons un ensemble de données annotées composé d'images de chiffres manuscrits. Un algorithme analyse les caractéristiques de chaque image en utilisant un schéma prédéterminé. Il crée ensuite un hypervecteur pour chaque image. Ensuite, l'algorithme ajoute les hypervecteurs pour toutes les images de zéro pour créer un hypervecteur pour l'idée de zéro. Il fait ensuite la même chose pour tous les chiffres, créant 10 hypervecteurs "de classe", un pour chaque chiffre.

Maintenant, l'algorithme reçoit une image non étiquetée. Il crée un hypervecteur pour cette nouvelle image, puis compare l'hypervecteur aux hypervecteurs de classe stockés. Cette comparaison détermine le chiffre auquel la nouvelle image ressemble le plus.

Pourtant, ce n'est que le début. Les points forts de l'informatique hyperdimensionnelle résident dans la capacité de composer et de décomposer des hypervecteurs pour le raisonnement. La dernière démonstration en date a eu lieu en mars, lorsqu'Abbas Rahimi et ses collègues d'IBM Research à Zurich ont utilisé l'informatique hyperdimensionnelle avec des réseaux de neurones pour résoudre un problème classique de raisonnement visuel abstrait - un défi important pour les RNA typiques, et même certains humains. Connu sous le nom de matrices progressives de Raven, le problème présente des images d'objets géométriques dans, disons, une grille 3 par 3. Une position dans la grille est vide. Le sujet doit choisir, parmi un ensemble d'images candidates, l'image qui correspond le mieux au blanc.

"Nous avons dit:" C'est vraiment ... l'exemple qui tue pour le raisonnement abstrait visuel, allons-y "", a déclaré Rahimi.

Pour résoudre le problème à l'aide de l'informatique hyperdimensionnelle, l'équipe a d'abord créé un dictionnaire d'hypervecteurs pour représenter les objets dans chaque image ; chaque hypervecteur du dictionnaire représente un objet et une combinaison de ses attributs. L'équipe a ensuite formé un réseau de neurones pour examiner une image et générer un hypervecteur bipolaire - un élément peut être +1 ou -1 - aussi proche que possible d'une superposition d'hypervecteurs dans le dictionnaire ; l'hypervecteur généré contient donc des informations sur tous les objets et leurs attributs dans l'image. "Vous guidez le réseau de neurones vers un espace conceptuel significatif", a déclaré Rahimi.

Une fois que le réseau a généré des hypervecteurs pour chacune des images de contexte et pour chaque candidat pour l'emplacement vide, un autre algorithme analyse les hypervecteurs pour créer des distributions de probabilité pour le nombre d'objets dans chaque image, leur taille et d'autres caractéristiques. Ces distributions de probabilité, qui parlent des caractéristiques probables à la fois du contexte et des images candidates, peuvent être transformées en hypervecteurs, permettant l'utilisation de l'algèbre pour prédire l'image candidate la plus susceptible de remplir l'emplacement vacant.

Leur approche était précise à près de 88 % sur un ensemble de problèmes, tandis que les solutions de réseau neuronal uniquement étaient précises à moins de 61 %. L'équipe a également montré que, pour les grilles 3 par 3, leur système était presque 250 fois plus rapide qu'une méthode traditionnelle qui utilise des règles de logique symbolique pour raisonner, car cette méthode doit parcourir un énorme livre de règles pour déterminer la bonne prochaine étape.

Un début prometteur

Non seulement l'informatique hyperdimensionnelle nous donne le pouvoir de résoudre symboliquement des problèmes, mais elle résout également certains problèmes épineux de l'informatique traditionnelle. Les performances des ordinateurs d'aujourd'hui se dégradent rapidement si les erreurs causées, par exemple, par un retournement de bit aléatoire (un 0 devient 1 ou vice versa) ne peuvent pas être corrigées par des mécanismes de correction d'erreurs intégrés. De plus, ces mécanismes de correction d'erreurs peuvent imposer une pénalité sur les performances allant jusqu'à 25 %, a déclaré Xun Jiao , informaticien à l'Université de Villanova.

Le calcul hyperdimensionnel tolère mieux les erreurs, car même si un hypervecteur subit un nombre important de retournements de bits aléatoires, il reste proche du vecteur d'origine. Cela implique que tout raisonnement utilisant ces vecteurs n'est pas significativement impacté face aux erreurs. L'équipe de Jiao a montré que ces systèmes sont au moins 10 fois plus tolérants aux pannes matérielles que les ANN traditionnels, qui sont eux-mêmes des ordres de grandeur plus résistants que les architectures informatiques traditionnelles. "Nous pouvons tirer parti de toute [cette] résilience pour concevoir du matériel efficace", a déclaré Jiao.

Un autre avantage de l'informatique hyperdimensionnelle est la transparence : l'algèbre vous indique clairement pourquoi le système a choisi la réponse qu'il a choisie. Il n'en va pas de même pour les réseaux de neurones traditionnels. Olshausen, Rahimi et d'autres développent des systèmes hybrides dans lesquels les réseaux de neurones cartographient les éléments du monde physique en hypervecteurs, puis l'algèbre hyperdimensionnelle prend le relais. "Des choses comme le raisonnement analogique vous tombent dessus", a déclaré Olshausen. "C'est ce que nous devrions attendre de tout système d'IA. Nous devrions pouvoir le comprendre comme nous comprenons un avion ou un téléviseur.

Tous ces avantages par rapport à l'informatique traditionnelle suggèrent que l'informatique hyperdimensionnelle est bien adaptée à une nouvelle génération de matériel extrêmement robuste et à faible consommation d'énergie. Il est également compatible avec les "systèmes informatiques en mémoire", qui effectuent le calcul sur le même matériel qui stocke les données (contrairement aux ordinateurs von Neumann existants qui transfèrent inefficacement les données entre la mémoire et l'unité centrale de traitement). Certains de ces nouveaux appareils peuvent être analogiques, fonctionnant à très basse tension, ce qui les rend économes en énergie mais également sujets aux bruits aléatoires. Pour l'informatique de von Neumann, ce caractère aléatoire est "le mur que vous ne pouvez pas franchir", a déclaré Olshausen. Mais avec l'informatique hyperdimensionnelle, "vous pouvez simplement percer".

Malgré ces avantages, l'informatique hyperdimensionnelle en est encore à ses balbutiements. "Il y a un vrai potentiel ici", a déclaré Fermüller. Mais elle souligne qu'il doit encore être testé contre des problèmes du monde réel et à des échelles plus grandes, plus proches de la taille des réseaux de neurones modernes.

"Pour les problèmes à grande échelle, cela nécessite un matériel très efficace", a déclaré Rahimi. "Par exemple, comment [faites-vous] une recherche efficace sur plus d'un milliard d'articles ?"

Tout cela devrait venir avec le temps, a déclaré Kanerva. "Il y a d'autres secrets [que] les espaces de grande dimension détiennent", a-t-il déclaré. "Je vois cela comme le tout début du temps pour le calcul avec des vecteurs."

Auteur: Ananthaswamy Anil

Info: https://www.quantamagazine.org/ Mais 2023

[ machine learning ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution subatomique

Une nouvelle idée pour assembler la vie         (Avec l'aimable autorisation de Lee Cronin)

Si nous voulons comprendre des constructions complexes, telles que nous-mêmes, la théorie de l'assemblage affirme que nous devons tenir compte de toute l'histoire de la création de ces entités, du pourquoi et comment elles sont ce qu'elles sont.

La théorie de l'assemblage explique pourquoi, étant donné les possibilités combinatoires apparemment infinies, nous n'observons qu'un certain sous-ensemble d'objets dans notre univers.

La vie sur d'autres mondes - si elle existe - pourrait être si étrangère qu'elle en serait méconnaissable. Il n'est pas certain que la biologie extraterrestre utilise la même chimie que celle de la Terre, avec des éléments constitutifs familiers tels que l'ADN et les protéines. Avec cette approche les scientifiques pourraient même repérer les signatures de ces formes de vie sans savoir qu'elles sont le fruit de la biologie.

Ce problème est loin d'être hypothétique. En avril, la sonde Juice de l'Agence spatiale européenne a décollé de la Guyane française en direction de Jupiter et de ses lunes. L'une de ces lunes, Europe, abrite un océan profond et saumâtre sous sa croûte gelée et figure parmi les endroits les plus prometteurs du système solaire pour la recherche d'une vie extraterrestre. L'année prochaine, le vaisseau spatial Europa Clipper de la NASA sera lancé, lui aussi en direction d'Europe. Les deux engins spatiaux sont équipés d'instruments embarqués qui rechercheront les empreintes de molécules organiques complexes, signe possible de vie sous la glace. En 2027, la NASA prévoit de lancer un hélicoptère ressemblant à un drone, appelé Dragonfly, pour survoler la surface de Titan, une lune de Saturne, un monde brumeux, riche en carbone, avec des lacs d'hydrocarbures liquides qui pourraient être propices à la vie, mais pas telle que nous la connaissons.

Ces missions et d'autres encore se heurteront au même obstacle que celui auquel se heurtent les scientifiques depuis qu'ils ont tenté pour la première fois de rechercher des signes de biologie martienne avec les atterrisseurs Viking dans les années 1970 : Il n'y a pas de signature définitive de la vie.

C'est peut-être sur le point de changer. En 2021, une équipe dirigée par Lee Cronin, de l'université de Glasgow, en Écosse, et Sara Walker, de l'université d'État de l'Arizona, a proposé une méthode très générale pour identifier les molécules produites par les systèmes vivants, même ceux qui utilisent des chimies inconnues. Leur méthode suppose simplement que les formes de vie extraterrestres produisent des molécules dont la complexité chimique est similaire à celle de la vie sur Terre.

Appelée théorie de l'assemblage, l'idée qui sous-tend la stratégie des deux chercheurs a des objectifs encore plus ambitieux. Comme l'indique une récente série de publications, elle tente d'expliquer pourquoi des choses apparemment improbables, telles que vous et moi, existent. Et elle cherche cette explication non pas, à la manière habituelle de la physique, dans des lois physiques intemporelles, mais dans un processus qui imprègne les objets d'histoires et de souvenirs de ce qui les a précédés. Elle cherche même à répondre à une question qui laisse les scientifiques et les philosophes perplexes depuis des millénaires : qu'est-ce que la vie, de toute façon ?

Il n'est pas surprenant qu'un projet aussi ambitieux ait suscité le scepticisme. Ses partisans n'ont pas encore précisé comment il pourrait être testé en laboratoire. Et certains scientifiques se demandent si la théorie de l'assemblage peut même tenir ses promesses les plus modestes, à savoir distinguer la vie de la non-vie et envisager la complexité d'une nouvelle manière.

La théorie de l'assemblage a évolué, en partie, pour répondre au soupçon de Lee Cronin selon lequel "les molécules complexes ne peuvent pas simplement émerger, parce que l'espace combinatoire est trop vaste".

Mais d'autres estiment que la théorie de l'assemblage n'en est qu'à ses débuts et qu'il existe une réelle possibilité qu'elle apporte une nouvelle perspective à la question de la naissance et de l'évolution de la complexité. "Il est amusant de s'engager dans cette voie", a déclaré le théoricien de l'évolution David Krakauer, président de l'Institut Santa Fe. Selon lui, la théorie de l'assemblage permet de découvrir l'histoire contingente des objets, une question ignorée par la plupart des théories de la complexité, qui ont tendance à se concentrer sur la façon dont les choses sont, mais pas sur la façon dont elles sont devenues telles. Paul Davies, physicien à l'université de l'Arizona, est d'accord avec cette idée, qu'il qualifie de "nouvelle, susceptible de transformer notre façon de penser la complexité".

Sur l'ordre des choses

La théorie de l'assemblage est née lorsque M. Cronin s'est demandé pourquoi, compte tenu du nombre astronomique de façons de combiner différents atomes, la nature fabrique certaines molécules et pas d'autres. C'est une chose de dire qu'un objet est possible selon les lois de la physique, c'en est une autre de dire qu'il existe une voie réelle pour le fabriquer à partir de ses composants. "La théorie de l'assemblage a été élaborée pour traduire mon intuition selon laquelle les molécules complexes ne peuvent pas simplement émerger parce que l'espace combinatoire est trop vaste", a déclaré M. Cronin.

Walker, quant à lui, s'est penché sur la question de l'origine de la vie - une question étroitement liée à la fabrication de molécules complexes, car celles des organismes vivants sont bien trop complexes pour avoir été assemblées par hasard. Walker s'est dit que quelque chose avait dû guider ce processus avant même que la sélection darwinienne ne prenne le dessus.

Cronin et Walker ont uni leurs forces après avoir participé à un atelier d'astrobiologie de la NASA en 2012. "Sara et moi discutions de la théorie de l'information, de la vie et des voies minimales pour construire des machines autoreproductibles", se souvient M. Cronin. "Et il m'est apparu très clairement que nous convergions tous les deux sur le fait qu'il manquait une 'force motrice' avant la biologie."

Aujourd'hui, la théorie de l'assemblage fournit une explication cohérente et mathématiquement précise de l'apparente contingence historique de la fabrication des objets - pourquoi, par exemple, ne peut-on pas développer de fusées avant d'avoir d'abord la vie multicellulaire, puis l'homme, puis la civilisation et la science. Il existe un ordre particulier dans lequel les objets peuvent apparaître.

"Nous vivons dans un univers structuré de manière récursive*", a déclaré M. Walker. "La plupart des structures doivent être construites à partir de la mémoire du passé. L'information se construit au fil du temps.

Cela peut sembler intuitivement évident, mais il est plus difficile de répondre à certaines questions sur l'ordre des choses. Les dinosaures ont-ils dû précéder les oiseaux ? Mozart devait-il précéder John Coltrane ? Peut-on dire quelles molécules ont nécessairement précédé l'ADN et les protéines ?

Quantifier la complexité

La théorie de l'assemblage repose sur l'hypothèse apparemment incontestable que les objets complexes résultent de la combinaison de nombreux objets plus simples. Selon cette théorie, il est possible de mesurer objectivement la complexité d'un objet en examinant la manière dont il a été fabriqué. Pour ce faire, on calcule le nombre minimum d'étapes nécessaires pour fabriquer l'objet à partir de ses ingrédients, que l'on quantifie en tant qu'indice d'assemblage (IA).

En outre, pour qu'un objet complexe soit intéressant d'un point de vue scientifique, il faut qu'il y en ait beaucoup. Des objets très complexes peuvent résulter de processus d'assemblage aléatoires - par exemple, on peut fabriquer des molécules de type protéine en reliant n'importe quels acides aminés en chaînes. En général, cependant, ces molécules aléatoires ne feront rien d'intéressant, comme se comporter comme une enzyme. En outre, les chances d'obtenir deux molécules identiques de cette manière sont extrêmement faibles.

En revanche, les enzymes fonctionnelles sont fabriquées de manière fiable à maintes reprises en biologie, car elles sont assemblées non pas au hasard, mais à partir d'instructions génétiques transmises de génération en génération. Ainsi, si le fait de trouver une seule molécule très complexe ne vous dit rien sur la manière dont elle a été fabriquée, il est improbable de trouver plusieurs molécules complexes identiques, à moins qu'un processus orchestré - peut-être la vie - ne soit à l'œuvre.

Cronin et Walker ont calculé que si une molécule est suffisamment abondante pour être détectable, son indice d'assemblage peut indiquer si elle a été produite par un processus organisé et réaliste. L'intérêt de cette approche est qu'elle ne suppose rien sur la chimie détaillée de la molécule elle-même, ni sur celle de l'entité vivante qui l'a produite. Elle est chimiquement agnostique. C'est ce qui la rend particulièrement précieuse lorsque nous recherchons des formes de vie qui pourraient ne pas être conformes à la biochimie terrestre, a déclaré Jonathan Lunine, planétologue à l'université Cornell et chercheur principal d'une mission proposée pour rechercher la vie sur la lune glacée de Saturne, Encelade.

"Il est bien qu'au moins une technique relativement agnostique soit embarquée à bord des missions de détection de la vie", a déclaré Jonathan Lunine.

Il ajoute qu'il est possible d'effectuer les mesures requises par la théorie de l'assemblage avec des techniques déjà utilisées pour étudier la chimie des surfaces planétaires. "La mise en œuvre de mesures permettant l'utilisation de la théorie de l'assemblage pour l'interprétation des données est éminemment réalisable", a-t-il déclaré.

La mesure du travail d'une vie

Ce qu'il faut, c'est une méthode expérimentale rapide et facile pour déterminer l'IA (indice d'assemblage) de certaines molécules. À l'aide d'une base de données de structures chimiques, Cronin, Walker et leurs collègues ont conçu un moyen de calculer le nombre minimum d'étapes nécessaires à la fabrication de différentes structures moléculaires. Leurs résultats ont montré que, pour les molécules relativement petites, l'indice d'assemblage est à peu près proportionnel au poids moléculaire. Mais pour les molécules plus grandes (tout ce qui est plus grand que les petits peptides, par exemple), cette relation est rompue.

Dans ces cas, les chercheurs ont découvert qu'ils pouvaient estimer l'IA à l'aide de la spectrométrie de masse, une technique déjà utilisée par le rover Curiosity de la NASA pour identifier les composés chimiques à la surface de Mars, et par la sonde Cassini de la NASA pour étudier les molécules qui jaillissent d'Encelade.

La spectrométrie de masse décompose généralement les grosses molécules en fragments. Cronin, Walker et leurs collègues ont constaté qu'au cours de ce processus, les grosses molécules à IA élevé se fracturent en mélanges de fragments plus complexes que celles à IA faible (comme les polymères simples et répétitifs). Les chercheurs ont ainsi pu déterminer de manière fiable l'IA (indice d'assemblage) en fonction de la complexité du spectre de masse de la molécule.

Lorsque les chercheurs ont ensuite testé la technique, ils ont constaté que les mélanges complexes de molécules produites par des systèmes vivants - une culture de bactéries E. coli, des produits naturels comme le taxol (un métabolite de l'if du Pacifique aux propriétés anticancéreuses), de la bière et des cellules de levure - présentaient généralement des IA moyens nettement plus élevés que les minéraux ou les simples substances organiques.

L'analyse est susceptible de donner lieu à des faux négatifs : certains produits issus de systèmes vivants, tels que le scotch Ardbeg single malt, ont des IA qui suggèrent une origine non vivante. Mais ce qui est peut-être plus important encore, c'est que l'expérience n'a produit aucun faux positif : Les systèmes abiotiques ne peuvent pas obtenir des IA suffisamment élevés pour imiter la biologie. Les chercheurs ont donc conclu que si un échantillon doté d'un IA moléculaire élevé est mesuré sur un autre monde, il est probable qu'il ait été fabriqué par une entité que l'on pourrait qualifier de vivante.

(Photo-schéma : Une échelle de la vie)

Les chercheurs ont établi/estimé l'indice d'assemblage (IA) de substance variées par des mesures répétés de leurs structures moléculaires, Seules celles assemblées biologiquement ont un AI au-dessus d'un certain palier. 

Non biologique        (vert)

Indice               bas        moyen       haut

charbon             10...    12

quarz                    11... 12

granit                 10  ..   12..   15

Biologique               (jaune)

levure                10                         24

urine                9                          ...   27

eau de mer      9                                 ....28

e-Coli                                    15                        31

bière                 10                                 ..            34

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.1038/s41467-021-23258-x)

La spectrométrie de masse ne fonctionnerait que dans le cadre de recherches astrobiologiques ayant accès à des échantillons physiques, c'est-à-dire des missions d'atterrissage ou des orbiteurs comme Europa Clipper, qui peuvent ramasser et analyser des molécules éjectées de la surface d'un monde. Mais Cronin et ses collègues viennent de montrer qu'ils peuvent mesurer l'IA moléculaire en utilisant deux autres techniques qui donnent des résultats cohérents. L'une d'entre elles, la spectroscopie infrarouge, pourrait être utilisée par des instruments tels que ceux du télescope spatial James Webb, qui étudient à distance la composition chimique de mondes lointains.

Cela ne veut pas dire que ces méthodes de détection moléculaire offrent un instrument de mesure précis permettant de passer de la pierre au reptile. Hector Zenil, informaticien et biotechnologue à l'université de Cambridge, a souligné que la substance présentant l'IA le plus élevé de tous les échantillons testés par le groupe de Glasgow - une substance qui, selon cette mesure, pourrait être considérée comme la plus "biologique" - n'était pas une bactérie.

C'était de la bière.

Se débarrasser des chaînes du déterminisme

La théorie de l'assemblage prédit que des objets comme nous ne peuvent pas naître isolément - que certains objets complexes ne peuvent émerger qu'en conjonction avec d'autres. C'est intuitivement logique : l'univers n'a jamais pu produire un seul être humain. Pour qu'il y ait des êtres humains, il faut qu'il y en ait beaucoup.

La physique traditionnelle n'a qu'une utilité limitée lorsqu'il s'agit de prendre en compte des entités spécifiques et réelles telles que les êtres humains en général (et vous et moi en particulier). Elle fournit les lois de la nature et suppose que des résultats spécifiques sont le fruit de conditions initiales spécifiques. Selon ce point de vue, nous devrions avoir été codés d'une manière ou d'une autre dans les premiers instants de l'univers. Mais il faut certainement des conditions initiales extrêmement bien réglées pour que l'Homo sapiens (et a fortiori vous) soit inévitable.

La théorie de l'assemblage, selon ses défenseurs, échappe à ce type d'image surdéterminée. Ici, les conditions initiales n'ont pas beaucoup d'importance. Les informations nécessaires à la fabrication d'objets spécifiques tels que nous n'étaient pas présentes au départ, mais se sont accumulées au cours du processus d'évolution cosmique, ce qui nous dispense de faire porter toute la responsabilité à un Big Bang incroyablement bien réglé. L'information "est dans le chemin", a déclaré M. Walker, "pas dans les conditions initiales".

Cronin et Walker ne sont pas les seuls scientifiques à tenter d'expliquer que les clés de la réalité observée pourraient bien ne pas résider dans des lois universelles, mais dans la manière dont certains objets sont assemblés et se transforment en d'autres. La physicienne théorique Chiara Marletto, de l'université d'Oxford, développe une idée similaire avec le physicien David Deutsch. Leur approche, qu'ils appellent la théorie des constructeurs et que Marletto considère comme "proche dans l'esprit" de la théorie de l'assemblage, examine quels types de transformations sont possibles et lesquels ne le sont pas.

"La théorie des constructeurs parle de l'univers des tâches capables d'effectuer certaines transformations", explique M. Cronin. "On peut considérer qu'elle limite ce qui peut se produire dans le cadre des lois de la physique. La théorie de l'assemblage, ajoute-t-il, ajoute le temps et l'histoire à cette équation.

Pour expliquer pourquoi certains objets sont fabriqués et d'autres non, la théorie de l'assemblage identifie une hiérarchie imbriquée de quatre "univers" distincts.

1 Dans l'univers de l'assemblage, toutes les permutations des éléments de base sont autorisées. 2 Dans l'univers de l'assemblage possible, les lois de la physique limitent ces combinaisons, de sorte que seuls certains objets sont réalisables. 3 L'univers de l'assemblage contingenté élague alors le vaste éventail d'objets physiquement autorisés en sélectionnant ceux qui peuvent effectivement être assemblés selon des chemins possibles. 4 Le quatrième univers est l'assemblage observé, qui comprend uniquement les processus d'assemblage qui ont généré les objets spécifiques que nous voyons actuellement.

(Photo - schéma montrant l'univers de l'assemblage dès son origine via un entonnoir inversé présentant ces 4 étapes, qui élargissent en descendant)

1 Univers assembleur

Espace non contraint contenant toutes les permutations possibles des blocs de base de l'univers

2 Assemblage possibles

Seuls les objets physiquement possibles existent, limités par les lois de la physique.

3 Assemblages contingents

Objets qui peuvent effectivement être assemblés en utilisant des chemins possibles

4 Assemblage dans le réel

Ce que nous pouvons observer

(Merrill Sherman/Quanta Magazine ; source : https://doi.org/10.48550/arXiv.2206.02279)

La théorie de l'assemblage explore la structure de tous ces univers, en utilisant des idées tirées de l'étude mathématique des graphes, ou réseaux de nœuds interconnectés. Il s'agit d'une "théorie de l'objet d'abord", a déclaré M. Walker, selon laquelle "les choses [dans la théorie] sont les objets qui sont effectivement fabriqués, et non leurs composants".

Pour comprendre comment les processus d'assemblage fonctionnent dans ces univers notionnels, prenons le problème de l'évolution darwinienne. Conventionnellement, l'évolution est quelque chose qui "s'est produit" une fois que des molécules répliquées sont apparues par hasard - un point de vue qui risque d'être une tautologie (affirmation/certitude), parce qu'il semble dire que l'évolution a commencé une fois que des molécules évolutives ont existé. Les partisans de la théorie de l'assemblage et de la théorie du constructeur recherchent au contraire "une compréhension quantitative de l'évolution ancrée dans la physique", a déclaré M. Marletto.

Selon la théorie de l'assemblage, pour que l'évolution darwinienne puisse avoir lieu, il faut que quelque chose sélectionne de multiples copies d'objets à forte intelligence artificielle dans l'assemblage possible. Selon M. Cronin, la chimie à elle seule pourrait en être capable, en réduisant des molécules relativement complexes à un petit sous-ensemble. Les réactions chimiques ordinaires "sélectionnent" déjà certains produits parmi toutes les permutations possibles parce que leur vitesse de réaction est plus rapide.

Les conditions spécifiques de l'environnement prébiotique, telles que la température ou les surfaces minérales catalytiques, pourraient donc avoir commencé à vidanger/filtrer le pool des précurseurs moléculaires de la vie parmi ceux de l'assemblage possible. Selon la théorie de l'assemblage, ces préférences prébiotiques seront "mémorisées" dans les molécules biologiques actuelles : Elles encodent leur propre histoire. Une fois que la sélection darwinienne a pris le dessus, elle a favorisé les objets les plus aptes à se répliquer. Ce faisant, ce codage de l'histoire s'est encore renforcé. C'est précisément la raison pour laquelle les scientifiques peuvent utiliser les structures moléculaires des protéines et de l'ADN pour faire des déductions sur les relations évolutives des organismes.

Ainsi, la théorie de l'assemblage "fournit un cadre permettant d'unifier les descriptions de la sélection en physique et en biologie", écrivent Cronin, Walker et leurs collègues. Plus un objet est "assemblé", plus il faut de sélections successives pour qu'il parvienne à l'existence.

"Nous essayons d'élaborer une théorie qui explique comment la vie naît de la chimie", a déclaré M. Cronin, "et de le faire d'une manière rigoureuse et vérifiable sur le plan empirique".

Une mesure pour tous les gouverner ?

Krakauer estime que la théorie de l'assemblage et la théorie du constructeur offrent toutes deux de nouvelles façons stimulantes de réfléchir à la manière dont les objets complexes prennent naissance. "Ces théories sont davantage des télescopes que des laboratoires de chimie", a-t-il déclaré. "Elles nous permettent de voir les choses, pas de les fabriquer. Ce n'est pas du tout une mauvaise chose et cela pourrait être très puissant".

Mais il prévient que "comme pour toute la science, la preuve sera dans le pudding".

Zenil, quant à lui, estime que, compte tenu de l'existence d'une liste déjà considérable de mesures de la complexité telles que la complexité de Kolmogorov, la théorie de l'assemblage ne fait que réinventer la roue. Marletto n'est pas d'accord. "Il existe plusieurs mesures de la complexité, chacune capturant une notion différente de cette dernière", a-t-elle déclaré. Mais la plupart de ces mesures ne sont pas liées à des processus réels. Par exemple, la complexité de Kolmogorov suppose une sorte d'appareil capable d'assembler tout ce que les lois de la physique permettent. Il s'agit d'une mesure appropriée à l'assemblage possible, a déclaré Mme Marletto, mais pas nécessairement à l'assemblage observé. En revanche, la théorie de l'assemblage est "une approche prometteuse parce qu'elle se concentre sur des propriétés physiques définies de manière opérationnelle", a-t-elle déclaré, "plutôt que sur des notions abstraites de complexité".

Selon M. Cronin, ce qui manque dans les mesures de complexité précédentes, c'est un sens de l'histoire de l'objet complexe - les mesures ne font pas la distinction entre une enzyme et un polypeptide aléatoire.

Cronin et Walker espèrent que la théorie de l'assemblage permettra à terme de répondre à des questions très vastes en physique, telles que la nature du temps et l'origine de la deuxième loi de la thermodynamique. Mais ces objectifs sont encore lointains. "Le programme de la théorie de l'assemblage n'en est qu'à ses débuts", a déclaré Mme Marletto. Elle espère voir la théorie mise à l'épreuve en laboratoire. Mais cela pourrait aussi se produire dans la nature, dans le cadre de la recherche de processus réalistes se déroulant sur des mondes extraterrestres.

 

Auteur: Internet

Info: https://www.quantamagazine.org/a-new-theory-for-the-assembly-of-life-in-the-universe-20230504?mc_cid=088ea6be73&mc_eid=78bedba296 - Philip Ball , contributing Writer,  4 mai 2023. *Qui peut être répété un nombre indéfini de fois par l'application de la même règle.

[ ergodicité mystère ] [ exobiologie ] [ astrobiologie ] [ exploration spatiale ] [ origine de la vie ] [ xénobiologie ] [ itération nécessaire ] [ ordre caché ] [ univers mécanique ] [ théorie-pratique ] [ macromolécules ] [ progression orthogonale ] [ décentrement anthropique ]

 

Commentaires: 0

Ajouté à la BD par miguel