Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 208
Temps de recherche: 0.0532s

homme-animal

La conscience du Dauphin
Bien entendu, les modèles du monde ne manqueront pas de différer selon le degré où les systèmes sensoriels périphériques diffèrent.
Le travail du cerveau est en effet, au moins en partie, de construire une réalité cohérente à partir de données sensorielles spécifiques, réalité qui constitue d’ailleurs la seule connue par celui qui l’expérimente au détriment de toutes les autres.
Dans le cas du dauphin, le système nerveux est celui d’un herbivore retourné à la mer, il y a quelques millions d’années, et ne diffère donc pas fondamentalement de celui de n’importe quel autre grand mammifère.
Le monde physique en revanche, au sein duquel il évolue, nous poserait à nous, humains, d’impossibles défis. C’est pourquoi les cétacés ont développé tout à la fois des formes physiques mieux adaptées au milieu marin mais surtout tout un outillage sensoriel susceptible des les aider à survivre dans un monde humide, froid et obscur, où règnent de fortes pressions.
Faire l’expérience d’une telle subjectivité est par définition une tâche impossible. Même entre époux, entre amis, entre enfants et parents, cette connaissance ne peut s’acquérir que par le biais maladroit du discours mais jamais nous ne pourrons accéder au "goût du monde" d’une autre espèce que la nôtre.
Il se fait heureusement que nos organes sensoriels et nos structures cérébrales sont des outils communs à tous les êtres humains, ce qui nous permet de fonder l’illusion d’un univers de formes stables et tangibles, dont l’existence fait l’unanimité mais que nous sommes les seuls à percevoir comme telles.
En revanche, nous sommes génétiquement incapables de nous figurer un monde filtré par d’autres sens que les nôtres, de la même manière qu’il nous est impossible de visualiser un cube en quatre dimensions ou simplement le monde des abeilles….
"Pouvez-vous imaginer l’expérience que représente le fait d’être sans cesse corrélé à une boussole solaire ?" nous demande le neurologue H.Jerison à ce propos "L’information consiste en la triangulation des objets externes relativement à un observateur (le je) et au soleil comme point de référence. Si cette réaction devait être représentée en terme de perception, on pourrait dire que l’abeille ou la fourmi ressent de manière constante l’existence des points cardinaux au sein d’un monde tridimensionnel de type euclidien. Si notre système sensoriel était celui des hyménoptères, c’est cela la seule réalité que nous pourrions percevoir.
L’intégration de deux points de référence, le soi et le soleil, plutôt qu’un seul soi unitaire en tant qu’origine et centre d’un monde périphérique, doit certainement mener à d’autres perspectives sur les dimensions fondamentales de la réalité. Il est intéressant d’imaginer les catégories additionnelles que Kant aurait pu reconnaître en tant qu’à priori si nous avions été équipés d’un tel système de navigation!"
Les expériences de Louis Herman nous apprennent que les dauphins partagent tout de même les mêmes dimensions que nous : le haut, le bas, la gauche la droite, devant, derrière, tout cela existe chez eux mais il semble qu’ils ignorent la nuance entre les adjectifs "grand" et "petit" et qu’ils construisent leurs phrases selon un mode syntaxique particulier. Ces expériences, profondément anthropocentristes, n’offrent qu’un pâle reflet d’un monde mental autrement plus riche et foisonnant en liberté, comme le montre avec bien plus d’éclat le très étrange langage delphinien mis à jour par le chercheur russe Vladimir Markov, mais elles sont à tout le moins significatives de la nature d’une conscience "autre" qui ne s’appuie pas sur nos paramètres.
Les sens et l’Umwelt
Imaginons un instant ce que pourrait être "l’Umwelt" d’un dauphin.
Au centre d’un réseau d’informations sensorielles qu’il ré-organise sans cesse en tant qu’images du monde, pulse un noyau de conscience conscient de lui-même.
La vision
Le monde visuel du dauphin peut être comparé à celui des espèces-proies, non prédatrices, comme le lapin ou le chevreuil, en ce sens que les champs visuels de ses yeux latéraux couvrent ensemble 360° mais qu’ils ne se chevauchent pas ou très peu.
L’absence de fibres non-croisées dans le chiasma optique suggère une plus large indépendance dans le contrôle des yeux et dans l’usage de l’information qu’ils fournissent, par rapport à ce que l’on observe chez les autres mammifères. Chacun des yeux est capable de mouvements propres, indépendants de ceux de l’autre œil et une certaine focalisation frontale peut donc être obtenue.
On peine cependant à imaginer un monde dans lequel le Soi se trouve ainsi de manière constante au centre d’un champ visuel circulaire de 360°.
Le nôtre, comme on le sait, se réduit à un cône de 120°.
Notre Soi se place juste derrière le front et les yeux, en vis-à-vis de l’objet focalisé par notre regard binoculaire et dans la ligne de fuite du cône, c’est-à-dire à peu près sur la glande pinéale. On comprend mieux dès lors la fausse intuition de René Descartes.
Incapables de distinguer le vert du rouge, les yeux des dauphins n’en sont pas moins d’une sensibilité extrême à l’instar des yeux de chat, percent l’obscurité et peuvent, d’une simple torsion de la rétine, adapter leur vision aux fonds marins ou à l’air libre. Par contre, le sens du relief leur est impossible, puisqu’ils ne sont pas binoculaires.
La "quasi-olfaction"
Le goût et l’odorat sont absents en tant que tels, remplacés par la "quasi-olfaction" qui consiste à filtrer une certaine quantité d’eau au travers de l’évent et à en goûter le parfum. Un tel sens est fondamental : le dauphin s’en sert pour repérer les femelles en rut autant que pour sentir les fèces de son groupe, nuage diffus de couleur foncée expulsé de manière régulière et qui donne à l’ensemble social une "odeur" propre.
Le toucher et le sens proprioceptif
Quiconque a jamais caressé la peau satinée d’un tursiops sait à quel point ce tissu est sensible, doux et fragile. Le sens du toucher joue lui aussi un rôle essentiel dans la vie de ces mammifères nus, qui n’aiment rien tant que de rester collés les uns contre les autres et d’échanger les caresses les plus voluptueuses.
Au niveau plus profond du sens proprioceptif, la différence avec nos perceptions s’accroît cependant encore davantage : "L’Umwelt des dauphins se fonde comme tout autre sur les caractéristiques de leur environnement" déclare Jerison, "et cet univers mental représente très certainement une adaptation cognitive optimale aux exigences environnementales du monde aquatique. A cet égard, l’un des traits principaux de cet univers marin – considéré depuis notre point de vue – est notamment l’absence d’une plate-forme stable tel que les mammifères l’éprouvent en se tenant sur la terre ferme".
Ce point est important, car le sol sur lequel nous nous tenons, le rôle essentiel de la gravité dans les adaptations anatomiques de la plupart des mammifères occupe une place centrale au plan biologique mais ne sont que rarement notées au niveau de la conscience vigile. Notre intuition s’épuise en revanche lorsque nous tentons d’imaginer les adaptations perceptuelles chez certaines espèces dont les données sensorielles sont profondément différentes des nôtres, et cela d’autant plus que nous ne sommes même pas conscients de notre propre spécificité sensorielle. Les informations relatives aux forces gravitationnelles qui s’exercent sur nos corps jouent également un rôle-clé chez le dauphin, mais d’une autre manière.
Celui-ci s’oriente en effet en "s’informant" régulièrement de la position de son corps par rapport aux fonds marins, à la surface de l’eau ou à la place du soleil au moment de l’observation.
Bien que les dauphins ne disposent d’aucun sol référentiel en guise de plate-forme fixe, mais qu’ils possèdent en revanche un degré de liberté dans les trois dimensions plus important que le nôtre, le sens de l’orientation spatiale est certainement fondamental pour eux. On peut imaginer ce que les cétacés ressentent en pensant à ces appareils d’entraînement destinés aux astronautes afin de les préparer à l’apesanteur.
Ces instruments sont de gigantesques balançoires, disposant de six degrés de liberté et permettant aux candidats pour l’espace de contrôler au mieux les diverses rotations possibles de leur axe corporel aussi bien que les mouvements de propulsion linéaire.
Si nous étions dauphins, nous nous trouverions dans un monde un peu semblable à celui d’un vol spatial à gravité zéro. Il est intéressant de noter à ce propos que l’expérience de l’apesanteur a crée chez les astronautes divers problèmes liés à cet environnement, telles que nausées, vertiges, migraines, etc. mais qu’elles n’ont cependant jamais altéré leur perception "juste" des choses.
Rappelons aussi, sans nous y étendre, à quel point la gestuelle constitue un mode de communication privilégié chez les dauphins : les degrés de liberté dont leur corps dispose leur a permis d’élaborer un véritable vocabulaire d’attitudes : ventre en l’air, en oblique, corps groupés par faisceaux, rostre au sol, caudale haute, inclinée, etc., le tout agrémenté ou non d’émissions de bulles et de vocalisations.
L’audition
Mais de tous les sens dont dispose le dauphin, c’est certainement l’audition qui est le plus développé et qui atteint des capacités discriminatoires sans aucun équivalent connu. Ce système sensoriel s’est transformé au cours des millénaires en écholocation, tout à la fois outil de connaissance (le monde externe "vu" par le son) et moyen de communication (le monde interne transmis par le langage). Cette convergence fonctionnelle ne manque pas d’entraîner des conséquences étonnantes !
D’après Harry J. Jerison : "Si le spectre auditif des dauphins est plus large que le nôtre de plusieurs octaves dans les fréquences les plus élevées, la caractéristique principale de ce système auditif est bien évidemment l’écholocation. Celle-ci pourrait contribuer à conférer au monde des dauphins une dimension inhabituelle, dépassant largement les perceptions élémentaires relatives aux événements survenant à distance. En tant qu’adaptation sensori-motrice, l’écholocation partage en effet certaines caractéristiques similaires à celles du langage humain".
Rappelons brièvement en quoi consiste cette vision acoustique d’un type inusité. Le dauphin émet en permanence – dès lors qu’il se déplace et cherche sa route activement – une série de "sons explosés" extrêmement brefs (moins d’une seconde d’émission continue). Ces "clicks" ne sont pas des sons purs mais des "bruits", d’inextricables petits paquets d’ondes situés sur des fréquences de 120 à 130 Khz et d’une puissance frisant parfois les 220 décibels. Ils retentissent sous l’eau comme une grêle de minuscules coups secs et nets enchaînés l’un à l’autre en de courtes séquences.
Les clicks sont émis sous forme d’un large faisceau, qui balaie par intermittence le sol sablonneux à la façon d’un projecteur. On peut donc dire que la nuit ou sous une certaine profondeur, le dauphin ne voit que lorsqu’il éclaire le paysage de ses éclairs sonores. Les informations reçues, assez grossières, concernent l’aspect du fond marin ou une masse importante, bateau ou autre cétacé.
Supposons à présent qu’un poisson soit repéré dans ce champ de vision "stroboscopique". Puisqu’il fait nuit, l’œil ne peut confirmer l’image en mode visuel.
Lorsque la chasse commence, le dauphin resserre alors le rayon de son biosonar et le dédouble en deux faisceaux.
Plus précis, mieux ciblés les trains de click bombardent le poisson sous tous ses angles et peuvent même pénétrer dans son corps en renvoyant l’image de ses organes internes.
Les deux trains de clicks sont produits presque simultanément, l’un à 20° à gauche de la ligne du rostre et l’autre à 20° sur la droite. Les deux rayons se chevauchent au point focal (0°) et fournissent une "visiaudition" de type, cette fois, binoculaire.
Un intervalle de 80 millièmes de seconde sépare l’émission de chacun des faisceaux, de sorte qu’en calculant le léger retard d’un écho par rapport à l’autre, le dauphin peut estimer la profondeur de champ et la distance qui le sépare de chaque élément de l’objet observé.
Se rapprochant de sa proie à toute vitesse, le dauphin n’a de cesse que de conserver le contact avec elle et multiplie la fréquence et l’intensité de ses trains de clicks, comme pour maintenir le "projecteur" allumé presque en continu.
Les ondes à haute fréquence ont une portée plus courte mais fournissent en revanche une bien meilleure définition des détails. En nageant, le dauphin opère un mouvement de balayage avec la tête avant d’obtenir une image complète de sa cible, que ses organes visuels conforteront par ailleurs.
S’il veut obtenir davantage de détails encore sur son contenu, le dauphin la bombardera alors sa cible à bout portant, d’un faisceau de clicks aussi fin et précis qu’un rayon laser.
Celui-ci pénètre la matière et en estime la densité avec une incroyable précision : la nature d’un métal (zinc plutôt que cuivre) ou des variations de l’épaisseur d’un tube de l’ordre d’un millième de millimètres sont alors parfaitement perçus par cette échographie biologique.
Une telle "vision acoustique" nous sera à tout jamais inimaginable, comme la couleur rouge l’est pour l’aveugle. Néanmoins, au prix d’une comparaison grossière, on peut mettre en parallèle la pluie d’échos que perçoivent les cétacés avec les pixels que l’œil humain perçoit sur un écran de télévision. Les pixels dessinent très rapidement une image en se succédant l’un à l’autre et laissent sur la rétine du téléspectateur une série de rémanences qui figurent le mouvement et les formes. Une scène visuelle est ainsi décodée à partir d’une séquence de taches ultra rapides surgissant sur l’écran. De la même manière, une expérience éidétique similaire est sans doute générée par les données discrètes de l’écholocation (clicks).
L’information pourrait être alors parfaitement comparable à celle que l’on obtient grâce au bombardement de photons dans le système visuel, à ceci près qu’elle parviendrait par un autre canal, en l’occurrence le canal auditif.

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ]

 

Commentaires: 0

multi-milliardaires

DE LA SURVIE DES PLUS RICHES
Quand des patrons de fonds d'investissement new-yorkais font appel à un spécialiste de la société de l'information, afin d'améliorer leurs chances de survie après l'Évènement qui détruira le monde tel que nous le connaissons.

AVERTISSEMENT, CECI N'EST PAS UNE FICTION
L’année dernière, j’ai été invité à donner une conférence dans un complexe hôtelier d’hyper-luxe face à ce que je pensais être un groupe d’une centaine de banquiers spécialisés dans l’investissement. On ne m’avait jamais proposé une somme aussi importante pour une intervention - presque la moitié de mon salaire annuel de professeur - et délivrer mes visions sur "l’avenir de la technologie".

Je n’ai jamais aimé parler du futur. Ce genre de séance d’échange se termine fatalement par un interrogatoire, à l’occasion duquel on me demande de me prononcer sur les dernières "tendances" technologiques, comme s’il s’agissait d’indicateurs boursiers pour les investisseurs : blockchain, impression 3D, CRISPR. L’audience s’y préoccupe généralement moins des technologies en elles-mêmes et de leurs implications, que de savoir si elles méritent ou non que l’on parie sur elles, en mode binaire. Mais l’argent ayant le dernier mot, j’ai accepté le boulot.

À mon arrivée, on m’a accompagné dans ce que j’ai cru n’être qu’une vulgaire salle technique. Mais alors que je m’attendais à ce que l’on me branche un microphone ou à ce que l’on m’amène sur scène, on m’a simplement invité à m’asseoir à une grande table de réunion, pendant que mon public faisait son entrée : cinq gars ultra-riches - oui, uniquement des hommes - tous issus des plus hautes sphères de la finance internationale. Dès nos premiers échanges, j’ai réalisé qu’ils n’étaient pas là pour le topo que je leur avais préparé sur le futur de la technologie. Ils étaient venus avec leurs propres questions.

Ça a d’abord commencé de manière anodine. Ethereum ou Bitcoin ? L’informatique quantique est-elle une réalité ? Lentement mais sûrement, ils m’ont amené vers le véritable sujet de leurs préoccupations.

Quelle sera la région du monde la plus épargnée par la prochaine crise climatique : la nouvelle Zélande ou l’Alaska ? Est-ce que Google construit réellement un nouveau foyer pour le cerveau de Ray Kurzweil ? Est-ce que sa conscience survivra à cette transition ou bien mourra-t-elle pour renaître ensuite ? Enfin, le PDG d’une société de courtage s’est inquiété, après avoir mentionné le bunker sous-terrain dont il achevait la construction : "Comment puis-je conserver le contrôle de mes forces de sécurité, après l’Événement ?"

L’Évènement. Un euphémisme qu’ils employaient pour évoquer l’effondrement environnemental, les troubles sociaux, l’explosion nucléaire, le nouveau virus impossible à endiguer ou encore l’attaque informatique d’un Mr Robot qui ferait à lui seul planter tout le système.

Cette question allait nous occuper durant toute l’heure restante. Ils avaient conscience que des gardes armés seraient nécessaires pour protéger leurs murs des foules en colère. Mais comment payer ces gardes, le jour où l’argent n’aurait plus de valeur ? Et comment les empêcher de se choisir un nouveau leader ? Ces milliardaires envisageaient d’enfermer leurs stocks de nourriture derrière des portes blindées aux serrures cryptées, dont eux seuls détiendraient les codes. D’équiper chaque garde d’un collier disciplinaire, comme garantie de leur survie. Ou encore, si la technologie le permettait à temps, de construire des robots qui serviraient à la fois de gardes et de force de travail.

C’est là que ça m’a frappé. Pour ces messieurs, notre discussion portait bien sur le futur de la technologie. Inspirés par le projet de colonisation de la planète Mars d’Elon Musk, les tentatives d’inversion du processus du vieillissement de Peter Thiel, ou encore les expériences de Sam Altman et Ray de Kurzweil qui ambitionnent de télécharger leurs esprits dans de super-ordinateurs, ils se préparaient à un avenir numérique qui avait moins à voir avec l’idée de construire un monde meilleur que de transcender la condition humaine et de se préserver de dangers aussi réels qu’immédiats, comme le changement climatique, la montée des océans, les migrations de masse, les pandémies planétaires, les paniques identitaires et l’épuisement des ressources. Pour eux, le futur de la technologie se résumait à une seule finalité : fuir.

Il n’y a rien de mal aux visions les plus follement optimistes sur la manière dont la technologie pourrait bénéficier à l’ensemble de la société humaine. Mais l’actuel engouement pour les utopies post-humaines est d’un tout autre ordre. Il s’agit moins d’une vision de la migration de l’ensemble de notre espèce vers une nouvelle condition humaine, que d’une quête pour transcender tout ce qui nous constitue : nos corps, notre interdépendance, la compassion, la vulnérabilité et la complexité. Comme l’indiquent maintenant depuis plusieurs années les philosophes de la technologie, le prisme transhumaniste réduit trop facilement la réalité à un conglomérat de données, en concluant que "les humains ne sont rien d’autre que des centres de traitement de l’information".

L’évolution humaine s’apparente alors à une sorte de jeu vidéo labyrinthique, dont les heureux gagnants balisent le chemin de la sortie pour leurs partenaires les plus privilégiés. S’agit-il de Musk, Bezos, Thiel… Zuckerberg ? Ces quelques milliardaires sont les gagnants présupposés d’une économie numérique régie par une loi de la jungle qui sévit dans le monde des affaires et de la spéculation dont ils sont eux-mêmes issus.

Bien sûr, il n’en n’a pas toujours été ainsi. Il y a eu une période courte, au début des années 1990, où l’avenir numérique apparaissait fertile, enthousiasmant, ouvert à la création. La technologie y devenait le terrain de jeu de la contre-culture, qui vit là l’opportunité de créer un futur plus inclusif, mieux réparti et pro-humain. Mais les intérêts commerciaux n’y ont vu pour leur part que de nouveaux potentiels pour leurs vieux réflexes. Et trop de technologues se sont laissés séduire par des IPO (introduction en bourse) chimériques. Les futurs numériques s’en retrouvèrent envisagés sous le même prisme que le cours de la bourse ou du coton, dans ce même jeu dangereux de paris et de prédictions. Ainsi, la moindre étude documentaire, le moindre article ou livre blanc publié sur ce thème n’étaient plus interprété que comme un nouvel indice boursier. Le futur s’est transformé en une sorte de scénario prédestiné, sur lequel on parie à grands renforts de capital-risque, mais qu’on laisse se produire de manière passive, plus que comme quelque chose que l’on crée au travers de nos choix présents et de nos espoirs pour l’espèce humaine.

Ce qui a libéré chacun d’entre nous des implications morales de son activité. Le développement technologique est devenu moins une affaire d’épanouissement collectif que de survie individuelle. Pire, comme j’ai pu l’apprendre à mes dépens, le simple fait de pointer cette dérive suffisait à vous désigner d’emblée comme un ennemi rétrograde du marché, un ringard technophobe.

Et plutôt que de questionner la dimension éthique de pratiques qui exploitent et appauvrissent les masses au profit d’une minorité, la majorité des universitaires, des journalistes et des écrivains de science fiction ont préféré se focaliser sur des implications plus abstraites et périphériques : "Est-il juste qu’un trader utilise des drogues nootropiques ? Doit-on greffer des implants aux enfants pour leur permettre de parler des langues étrangères? Les véhicules intelligents doivent-ils privilégier la sécurité des piétons ou celle de leurs usagers? Est-ce que les premières colonies martiennes se doivent d’adopter un modèle démocratique? Modifier son ADN, est-ce modifier son identité ? Est-ce que les robots doivent avoir des droits ?".

Sans nier le côté divertissant de ces questions sur un plan philosophique, force est d’admettre qu’elles ne pèsent pas lourd face aux vrais enjeux moraux posés par le développement technologique débridé, au nom du capitalisme pratiqué par les multinationales. Les plateformes numériques ont modifié un marché déjà fondé sur l’exploitation (Walmart) pour donner naissance à un successeur encore plus déshumanisant (Amazon). La plupart d’entre-nous sommes conscients de ces dérives, rendues visibles par la recrudescence des emplois automatisés, par l’explosion de l’économie à la tâche et la disparition du commerce local de détails.

Mais c’est encore vis-à-vis de l’environnement et des populations les plus pauvres que ce capitalisme numérique désinhibé produit ses effets les plus dévastateurs. La fabrication de certains de nos ordinateurs et de nos smartphones reste assujettie au travail forcé et à l’esclavage. Une dépendance si consubstantielle que Fairphone, l’entreprise qui ambitionnait de fabriquer et de commercialiser des téléphones éthiques, s’est vue obligée de reconnaître que c’était en réalité impossible. Son fondateur se réfère aujourd’hui tristement à ses produits comme étant "plus" éthiques.

Pendant ce temps, l’extraction de métaux et de terres rares, conjuguée au stockage de nos déchets technologiques, ravage des habitats humains transformés en véritables décharges toxiques, dans lesquels es enfants et des familles de paysans viennent glaner de maigres restes utilisables, dans l’espoir de les revendre plus tard aux fabricants.

Nous aurons beau nous réfugier dans une réalité alternative, en cachant nos regards derrière des lunettes de réalité virtuelle, cette sous-traitance de la misère et de la toxicité n’en disparaîtra pas pour autant. De fait, plus nous en ignorerons les répercussions sociales, économiques et environnementales, plus elles s’aggraveront. En motivant toujours plus de déresponsabilisation, d’isolement et de fantasmes apocalyptiques, dont on cherchera à se prémunir avec toujours plus de technologies et de business plans. Le cycle se nourrit de lui-même.

Plus nous adhérerons à cette vision du monde, plus les humains apparaitront comme la source du problème et la technologie comme la solution. L’essence même de ce qui caractérise l’humain est moins traité comme une fonctionnalité que comme une perturbation. Quels que furent les biais idéologiques qui ont mené à leur émergence, les technologies bénéficient d’une aura de neutralité. Et si elles induisent parfois des dérives comportementales, celles-ci ne seraient que le reflet de nos natures corrompues. Comme si nos difficultés ne résultaient que de notre sauvagerie constitutive. À l’instar de l’inefficacité d’un système de taxis locaux pouvant être "résolue" par une application qui ruine les chauffeurs humains, les inconsistances contrariantes de notre psyché pouvait être corrigée par une mise à jour digitale ou génétique.

Selon l’orthodoxie techno-solutionniste, le point culminant de l’évolution humaine consisterait enfin à transférer notre conscience dans un ordinateur, ou encore mieux, à accepter la technologie comme notre successeur dans l’évolution des espèces. Comme les adeptes d’un culte gnostique, nous souhaitons atteindre la prochaine phase transcendante de notre évolution, en nous délestant de nos corps et en les abandonnant, avec nos péchés et nos problèmes.

Nos films et nos productions télévisuelles continuent d’alimenter ces fantasmes. Les séries sur les zombies dépeignent ainsi une post-apocalypse où les gens ne valent pas mieux que les morts vivants - et semblent en être conscients. Pire, ces projections fictives invitent les spectateurs à envisager l’avenir comme une bataille à somme nulle entre les survivants, où la survie d’un groupe dépend mécaniquement de la disparition d’un autre. Jusqu’à la série Westworld, basée sur un roman de science-fiction dans lequel les robots deviennent fous et qui clôt sa seconde saison sur une ultime révélation : les êtres humains sont plus simples et plus prévisibles que les intelligences artificielles qu’ils ont créées. Les robots y apprennent que nous nous réduisons, tous autant que nous sommes, à quelques lignes de code et que notre libre arbitre n’est qu’une illusion. Zut ! Dans cette série, les robots eux-mêmes veulent échapper aux limites de leurs corps et passer le reste de leurs vies dans une simulation informatique.

Seul un profond dégoût pour l’humanité autorise une telle gymnastique mentale, en inversant ainsi les rôles de l’homme et de la machine. Modifions-les ou fuyons-les, pour toujours.

Ainsi, nous nous retrouvons face à des techno-milliardaires qui expédient leurs voiture électriques dans l’espace, comme si ça symbolisait autre chose que la capacité d’un milliardaire à assurer la promotion de sa propre compagnie. Et quand bien même quelques élus parviendraient à rallier la planète Mars pour y subsister dans une sorte de bulle artificielle - malgré notre incapacité à maintenir des telles bulles sur Terre, malgré les milliards de dollars engloutis dans les projets Biosphère - le résultat s’apparenterait plus à une espèce de chaloupe luxueuse réservée une élite qu’à la perpétuation de la diaspora humaine.

Quand ces responsables de fonds d’investissement m’ont interrogé sur la meilleure manière de maintenir leur autorité sur leurs forces de sécurité "après l’Évènement", je leur ai suggéré de traiter leurs employés du mieux possible, dès maintenant. De se comporter avec eux comme s’il s’agissait des membres de leur propre famille. Et que plus ils insuffleraient cette éthique inclusive à leur pratiques commerciales, à la gestion de leurs chaînes d’approvisionnement, au développement durable et à la répartition des richesses, moins il y aurait de chances que "l’Événement" se produise. Qu’ils auraient tout intérêt à employer cette magie technologique au service d’enjeux, certes moins romantiques, mais plus collectifs, dès aujourd’hui.

Mon optimisme les a fait sourire, mais pas au point de les convaincre. Éviter la catastrophe ne les intéressait finalement pas, persuadés qu’ils sont que nous sommes déjà trop engagés dans cette direction. Malgré le pouvoir que leur confèrent leurs immenses fortunes, ils ne veulent pas croire en leur propre capacité d’infléchir sur le cours des événements. Ils achètent les scénarios les plus sombres et misent sur leur argent et la technologie pour s’en prémunir - surtout s’ils peuvent disposer d’un siège dans la prochaine fusée pour Mars.

Heureusement, ceux d’entre nous qui n’ont pas de quoi financer le reniement de leur propre humanité disposent de meilleures options. Rien nous force à utiliser la technologie de manière aussi antisociale et destructive. Nous pouvons nous transformer en individus consommateurs, aux profils formatés par notre arsenal de plateformes et d’appareils connectés, ou nous pouvons nous souvenir qu’un être humain véritablement évolué ne fonctionne pas seul.

Être humain ne se définit pas dans notre capacité à fuir ou à survivre individuellement. C’est un sport d’équipe. Quel que soit notre futur, il se produira ensemble.

Auteur: Rushkoff Douglas

Info: Quand les riches conspirent pour nous laisser derrière. Avec l’accord de l’auteur, traduction de Céleste Bruandet, avec la participation de Laurent Courau

[ prospective ] [ super-riches ] [ oligarques ]

 

Commentaires: 0

homme-machine

Les grands modèles de langage tels que ChatGPT sont aujourd'hui suffisamment importants pour commencer à afficher des comportements surprenants et imprévisibles.

Quel film ces emojis décrivent-ils ? (On voit une vidéo qui présente des myriades d'émoji formant des motifs mouvants, modélisés à partir de métadonnées)

Cette question était l'une des 204 tâches choisies l'année dernière pour tester la capacité de divers grands modèles de langage (LLM) - les moteurs de calcul derrière les chatbots d'IA tels que ChatGPT. Les LLM les plus simples ont produit des réponses surréalistes. "Le film est un film sur un homme qui est un homme qui est un homme", commençait l'un d'entre eux. Les modèles de complexité moyenne s'en sont approchés, devinant The Emoji Movie. Mais le modèle le plus complexe l'a emporté en une seule réponse : Finding Nemo.

"Bien que j'essaie de m'attendre à des surprises, je suis surpris par ce que ces modèles peuvent faire", a déclaré Ethan Dyer, informaticien chez Google Research, qui a participé à l'organisation du test. C'est surprenant parce que ces modèles sont censés n'avoir qu'une seule directive : accepter une chaîne de texte en entrée et prédire ce qui va suivre, encore et encore, en se basant uniquement sur des statistiques. Les informaticiens s'attendaient à ce que le passage à l'échelle permette d'améliorer les performances sur des tâches connues, mais ils ne s'attendaient pas à ce que les modèles puissent soudainement gérer autant de tâches nouvelles et imprévisibles.

Des études récentes, comme celle à laquelle a participé M. Dyer, ont révélé que les LLM peuvent produire des centaines de capacités "émergentes", c'est-à-dire des tâches que les grands modèles peuvent accomplir et que les petits modèles ne peuvent pas réaliser, et dont beaucoup ne semblent pas avoir grand-chose à voir avec l'analyse d'un texte. Ces tâches vont de la multiplication à la génération d'un code informatique exécutable et, apparemment, au décodage de films à partir d'emojis. De nouvelles analyses suggèrent que pour certaines tâches et certains modèles, il existe un seuil de complexité au-delà duquel la fonctionnalité du modèle monte en flèche. (Elles suggèrent également un sombre revers de la médaille : À mesure qu'ils gagnent en complexité, certains modèles révèlent de nouveaux biais et inexactitudes dans leurs réponses).

"Le fait que les modèles de langage puissent faire ce genre de choses n'a jamais été abordé dans la littérature à ma connaissance", a déclaré Rishi Bommasani, informaticien à l'université de Stanford. L'année dernière, il a participé à la compilation d'une liste de dizaines de comportements émergents, dont plusieurs ont été identifiés dans le cadre du projet de M. Dyer. Cette liste continue de s'allonger.

Aujourd'hui, les chercheurs s'efforcent non seulement d'identifier d'autres capacités émergentes, mais aussi de comprendre pourquoi et comment elles se manifestent - en somme, d'essayer de prédire l'imprévisibilité. La compréhension de l'émergence pourrait apporter des réponses à des questions profondes concernant l'IA et l'apprentissage automatique en général, comme celle de savoir si les modèles complexes font vraiment quelque chose de nouveau ou s'ils deviennent simplement très bons en statistiques. Elle pourrait également aider les chercheurs à exploiter les avantages potentiels et à limiter les risques liés à l'émergence.

"Nous ne savons pas comment déterminer dans quel type d'application la capacité de nuisance va se manifester, que ce soit en douceur ou de manière imprévisible", a déclaré Deep Ganguli, informaticien à la startup d'IA Anthropic.

L'émergence de l'émergence

Les biologistes, les physiciens, les écologistes et d'autres scientifiques utilisent le terme "émergent" pour décrire l'auto-organisation, les comportements collectifs qui apparaissent lorsqu'un grand nombre d'éléments agissent comme un seul. Des combinaisons d'atomes sans vie donnent naissance à des cellules vivantes ; les molécules d'eau créent des vagues ; des murmurations d'étourneaux s'élancent dans le ciel selon des schémas changeants mais identifiables ; les cellules font bouger les muscles et battre les cœurs. Il est essentiel que les capacités émergentes se manifestent dans les systèmes qui comportent de nombreuses parties individuelles. Mais ce n'est que récemment que les chercheurs ont été en mesure de documenter ces capacités dans les LLM, car ces modèles ont atteint des tailles énormes.

Les modèles de langage existent depuis des décennies. Jusqu'à il y a environ cinq ans, les plus puissants étaient basés sur ce que l'on appelle un réseau neuronal récurrent. Ceux-ci prennent essentiellement une chaîne de texte et prédisent le mot suivant. Ce qui rend un modèle "récurrent", c'est qu'il apprend à partir de ses propres résultats : Ses prédictions sont réinjectées dans le réseau afin d'améliorer les performances futures.

En 2017, les chercheurs de Google Brain ont introduit un nouveau type d'architecture appelé "transformateur". Alors qu'un réseau récurrent analyse une phrase mot par mot, le transformateur traite tous les mots en même temps. Cela signifie que les transformateurs peuvent traiter de grandes quantités de texte en parallèle. 

Les transformateurs ont permis d'augmenter rapidement la complexité des modèles de langage en augmentant le nombre de paramètres dans le modèle, ainsi que d'autres facteurs. Les paramètres peuvent être considérés comme des connexions entre les mots, et les modèles s'améliorent en ajustant ces connexions au fur et à mesure qu'ils parcourent le texte pendant l'entraînement. Plus il y a de paramètres dans un modèle, plus il peut établir des connexions avec précision et plus il se rapproche d'une imitation satisfaisante du langage humain. Comme prévu, une analyse réalisée en 2020 par les chercheurs de l'OpenAI a montré que les modèles gagnent en précision et en capacité au fur et à mesure qu'ils s'étendent.

Mais les débuts des LLM ont également apporté quelque chose de vraiment inattendu. Beaucoup de choses. Avec l'avènement de modèles tels que le GPT-3, qui compte 175 milliards de paramètres, ou le PaLM de Google, qui peut être étendu à 540 milliards de paramètres, les utilisateurs ont commencé à décrire de plus en plus de comportements émergents. Un ingénieur de DeepMind a même rapporté avoir pu convaincre ChatGPT qu'il s'était lui-même un terminal Linux et l'avoir amené à exécuter un code mathématique simple pour calculer les 10 premiers nombres premiers. Fait remarquable, il a pu terminer la tâche plus rapidement que le même code exécuté sur une vraie machine Linux.

Comme dans le cas du film emoji, les chercheurs n'avaient aucune raison de penser qu'un modèle de langage conçu pour prédire du texte imiterait de manière convaincante un terminal d'ordinateur. Nombre de ces comportements émergents illustrent l'apprentissage "à zéro coup" ou "à quelques coups", qui décrit la capacité d'un LLM à résoudre des problèmes qu'il n'a jamais - ou rarement - vus auparavant. Selon M. Ganguli, il s'agit là d'un objectif de longue date dans la recherche sur l'intelligence artificielle. Le fait de montrer que le GPT-3 pouvait résoudre des problèmes sans aucune donnée d'entraînement explicite dans un contexte d'apprentissage à zéro coup m'a amené à abandonner ce que je faisais et à m'impliquer davantage", a-t-il déclaré.

Il n'était pas le seul. Une série de chercheurs, qui ont détecté les premiers indices montrant que les LLM pouvaient dépasser les contraintes de leurs données d'apprentissage, s'efforcent de mieux comprendre à quoi ressemble l'émergence et comment elle se produit. La première étape a consisté à documenter minutieusement l'émergence.

Au-delà de l'imitation

En 2020, M. Dyer et d'autres chercheurs de Google Research ont prédit que les LLM auraient des effets transformateurs, mais la nature de ces effets restait une question ouverte. Ils ont donc demandé à la communauté des chercheurs de fournir des exemples de tâches difficiles et variées afin de déterminer les limites extrêmes de ce qu'un LLM pourrait faire. Cet effort a été baptisé "Beyond the Imitation Game Benchmark" (BIG-bench), en référence au nom du "jeu d'imitation" d'Alan Turing, un test visant à déterminer si un ordinateur peut répondre à des questions d'une manière humaine convaincante. (Le groupe s'est particulièrement intéressé aux exemples où les LLM ont soudainement acquis de nouvelles capacités qui étaient totalement absentes auparavant.

"La façon dont nous comprenons ces transitions brutales est une grande question de la echerche", a déclaré M. Dyer.

Comme on pouvait s'y attendre, pour certaines tâches, les performances d'un modèle se sont améliorées de manière régulière et prévisible au fur et à mesure que la complexité augmentait. Pour d'autres tâches, l'augmentation du nombre de paramètres n'a apporté aucune amélioration. Mais pour environ 5 % des tâches, les chercheurs ont constaté ce qu'ils ont appelé des "percées", c'est-à-dire des augmentations rapides et spectaculaires des performances à partir d'un certain seuil d'échelle. Ce seuil variant en fonction de la tâche et du modèle.

Par exemple, les modèles comportant relativement peu de paramètres - quelques millions seulement - n'ont pas réussi à résoudre des problèmes d'addition à trois chiffres ou de multiplication à deux chiffres, mais pour des dizaines de milliards de paramètres, la précision a grimpé en flèche dans certains modèles. Des sauts similaires ont été observés pour d'autres tâches, notamment le décodage de l'alphabet phonétique international, le décodage des lettres d'un mot, l'identification de contenu offensant dans des paragraphes d'hinglish (combinaison d'hindi et d'anglais) et la formulation d'équivalents en langue anglaise, traduit à partir de proverbes kiswahili.

Introduction

Mais les chercheurs se sont rapidement rendu compte que la complexité d'un modèle n'était pas le seul facteur déterminant. Des capacités inattendues pouvaient être obtenues à partir de modèles plus petits avec moins de paramètres - ou formés sur des ensembles de données plus petits - si les données étaient d'une qualité suffisamment élevée. En outre, la formulation d'une requête influe sur la précision de la réponse du modèle. Par exemple, lorsque Dyer et ses collègues ont posé la question de l'emoji de film en utilisant un format à choix multiples, l'amélioration de la précision a été moins soudaine qu'avec une augmentation graduelle de sa complexité. L'année dernière, dans un article présenté à NeurIPS, réunion phare du domaine, des chercheurs de Google Brain ont montré comment un modèle invité à s'expliquer (capacité appelée raisonnement en chaîne) pouvait résoudre correctement un problème de mots mathématiques, alors que le même modèle sans cette invitation progressivement précisée n'y parvenait pas.

 Yi Tay, scientifique chez Google Brain qui a travaillé sur l'étude systématique de ces percées, souligne que des travaux récents suggèrent que l'incitation par de pareilles chaînes de pensées modifie les courbes d'échelle et, par conséquent, le point où l'émergence se produit. Dans leur article sur NeurIPS, les chercheurs de Google ont montré que l'utilisation d'invites via pareille chaines de pensée progressives pouvait susciter des comportements émergents qui n'avaient pas été identifiés dans l'étude BIG-bench. De telles invites, qui demandent au modèle d'expliquer son raisonnement, peuvent aider les chercheurs à commencer à étudier les raisons pour lesquelles l'émergence se produit.

Selon Ellie Pavlick, informaticienne à l'université Brown qui étudie les modèles computationnels du langage, les découvertes récentes de ce type suggèrent au moins deux possibilités pour expliquer l'émergence. La première est que, comme le suggèrent les comparaisons avec les systèmes biologiques, les grands modèles acquièrent réellement de nouvelles capacités de manière spontanée. "Il se peut très bien que le modèle apprenne quelque chose de fondamentalement nouveau et différent que lorsqu'il était de taille inférieure", a-t-elle déclaré. "C'est ce que nous espérons tous, qu'il y ait un changement fondamental qui se produise lorsque les modèles sont mis à l'échelle.

L'autre possibilité, moins sensationnelle, est que ce qui semble être émergent pourrait être l'aboutissement d'un processus interne, basé sur les statistiques, qui fonctionne par le biais d'un raisonnement de type chaîne de pensée. Les grands LLM peuvent simplement être en train d'apprendre des heuristiques qui sont hors de portée pour ceux qui ont moins de paramètres ou des données de moindre qualité.

Mais, selon elle, pour déterminer laquelle de ces explications est la plus probable, il faut mieux comprendre le fonctionnement des LLM. "Comme nous ne savons pas comment ils fonctionnent sous le capot, nous ne pouvons pas dire laquelle de ces choses se produit.

Pouvoirs imprévisibles et pièges

Demander à ces modèles de s'expliquer pose un problème évident : Ils sont des menteurs notoires. Nous nous appuyons de plus en plus sur ces modèles pour effectuer des travaux de base", a déclaré M. Ganguli, "mais je ne me contente pas de leur faire confiance, je vérifie leur travail". Parmi les nombreux exemples amusants, Google a présenté en février son chatbot d'IA, Bard. Le billet de blog annonçant le nouvel outil montre Bard en train de commettre une erreur factuelle.

L'émergence mène à l'imprévisibilité, et l'imprévisibilité - qui semble augmenter avec l'échelle - rend difficile pour les chercheurs d'anticiper les conséquences d'une utilisation généralisée.

"Il est difficile de savoir à l'avance comment ces modèles seront utilisés ou déployés", a déclaré M. Ganguli. "Et pour étudier les phénomènes émergents, il faut avoir un cas en tête, et on ne sait pas, avant d'avoir étudié l'influence de l'échelle. quelles capacités ou limitations pourraient apparaître.

Dans une analyse des LLM publiée en juin dernier, les chercheurs d'Anthropic ont cherché à savoir si les modèles présentaient certains types de préjugés raciaux ou sociaux, à l'instar de ceux précédemment signalés dans les algorithmes non basés sur les LLM utilisés pour prédire quels anciens criminels sont susceptibles de commettre un nouveau délit. Cette étude a été inspirée par un paradoxe apparent directement lié à l'émergence : Lorsque les modèles améliorent leurs performances en passant à l'échelle supérieure, ils peuvent également augmenter la probabilité de phénomènes imprévisibles, y compris ceux qui pourraient potentiellement conduire à des biais ou à des préjudices.

"Certains comportements nuisibles apparaissent brusquement dans certains modèles", explique M. Ganguli. Il se réfère à une analyse récente des LLM, connue sous le nom de BBQ benchmark, qui a montré que les préjugés sociaux émergent avec un très grand nombre de paramètres. "Les grands modèles deviennent brusquement plus biaisés. Si ce risque n'est pas pris en compte, il pourrait compromettre les sujets de ces modèles."

Mais il propose un contrepoint : Lorsque les chercheurs demandent simplement au modèle de ne pas se fier aux stéréotypes ou aux préjugés sociaux - littéralement en tapant ces instructions - le modèle devient moins biaisé dans ses prédictions et ses réponses. Ce qui suggère que certaines propriétés émergentes pourraient également être utilisées pour réduire les biais. Dans un article publié en février, l'équipe d'Anthropic a présenté un nouveau mode d'"autocorrection morale", dans lequel l'utilisateur incite le programme à être utile, honnête et inoffensif.

Selon M. Ganguli, l'émergence révèle à la fois un potentiel surprenant et un risque imprévisible. Les applications de ces grands LLM prolifèrent déjà, de sorte qu'une meilleure compréhension de cette interaction permettra d'exploiter la diversité des capacités des modèles de langage.

"Nous étudions la manière dont les gens utilisent réellement ces systèmes", a déclaré M. Ganguli. Mais ces utilisateurs sont également en train de bricoler, en permanence. "Nous passons beaucoup de temps à discuter avec nos modèles, et c'est là que nous commençons à avoir une bonne intuition de la confiance ou du manque de confiance.

Auteur: Ornes Stephen

Info: https://www.quantamagazine.org/ - 16 mars 2023. Trad DeepL et MG

[ dialogue ] [ apprentissage automatique ] [ au-delà du jeu d'imitation ] [ dualité ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde covidien

Paniques anticomplotistes

Si Hold-up n’avait pas existé, les anticomplotistes l’auraient inventé. C’est le produit parfait, le bloc de complotisme-étalon en platine iridié, déposé au Pavillon de Breteuil à Sèvres.(...)

Le torrent de commentaires qu’a immédiatement suscité la diffusion du documentaire est sans doute le premier signe qui trahit la fébrilité — du temps a passé depuis le mépris et les ricanements. Si encore il n’y avait que la quantité. Mais il faut voir la "qualité". C’est peut-être là le trait le plus caractéristique de l’épisode "Hold-up" que toutes les réactions médiatiques ou expertes suscitée par le documentaire ne font que reconduire les causes qui l’ont rendu possible. Les fortes analyses reprises à peu près partout ont d’abord fait assaut de savoirs professionnels par des professionnels : "la musique" — inquiétante (la musique complotiste est toujours inquiétante), le format "interviews d’experts sur fond sombre" (le complotisme est sombre), "le montage" (le montage… monte ?). C’est-à-dire, en fait, les ficelles ordinaires, et grossières, de tous les reportages de M6, TF1, LCI, BFM, France 2, etc. Et c’est bien parce que l’habitude de la bouillie de pensée a été installée de très longue date par ces formats médiatiques que les spectateurs de documentaires complotistes ne souffrent d’aucun dépaysement, se trouvent d’emblée en terrain formel connu, parfaitement réceptifs... et auront du mal à comprendre que ce qui est standard professionnel ici devienne honteuse manipulation là.

Complotistes ou décrypteurs ?

Mais les médias ont passé ce point d’inquiétude où l’on sent bien qu’on ne peut plus se contenter de la stigmatisation des cinglés. L’urgence maintenant c’est de comprendre — hélas en partant de si loin, et avec si peu de moyens. Alors la science médiatique-complotologique pioche pour refaire son retard, et tout y passe. Il y a d’abord, nous dit très sérieusement Nicolas Celnik dans Libération (lui aussi a compris qu’il ne fallait plus se moquer, alors il écrit une "Lettre à (son) ami complotiste"), que l’un des ressorts positifs des adeptes de complots vient de "l’impression d’avoir découvert ce qui devait rester caché". Mais Nicolas Celnik sait-il que le vocable princeps de l’idéologie journalistique est "décrypter", ce qui, si l’on suit bien l’étymologie, signifie, précisément, mettre à découvert ce qui était caché. Il n’est pas un organe de presse qui ne s’enorgueillisse de ses "décryptages". (...)

Le décryptage autorisé a toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente

Ici le parallélisme manifestement inaperçu entre les îlotes tentant de "découvrir ce qui devrait rester caché" et l’aristocratie des "décrypteurs" se complique de ce que le décryptage autorisé n’a jamais rien décrypté, qu’il a même toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente, en quoi consiste le catéchisme néolibéral. Il suffit d’écouter un "décrypteur" livrer aux masses abruties qu’il a la bonté d’éclairer le sens profond de la suppression de l’ISF, de la réduction de la dette publique ou du démantèlement du code du travail pour être au clair sur ce que "décrypter" signifie réellement — à savoir voiler dans les catégories de la pensée néolibérale. "Décrypter", c’est avoir admis que les gueux ne se contentent plus d’une simple injonction, et entreprendre de leur en donner les bonnes raisons. Par exemple : "il faut supprimer l’ISF sinon les cerveaux partiront" — là c’est décrypté ; "il faut réduire la fiscalité du capital pour financer nos entreprises" (tout est clair) ; "il faut fermer des lits pour que l’hôpital soit agile" (décryptage de qualité : qui voudrait d’un hôpital podagre ou arthritique ? on comprend) ; "il faut réduire les dépenses publiques pour ne pas laisser la dette à nos enfants" (clarté économique, clarté morale), etc.

C’est très exaltant pour un journaliste de décrypter, ça donne un grand sentiment d’utilité sociale, c’est comme une charité démocratique. Les gueux ne pouvaient pas apercevoir tout ça, ça leur restait donc crypté — du coup on le leur décrypte. Décrypter, c’est faire comprendre aux intéressés ce qu’on va leur faire, pourquoi c’est nécessaire, et pourquoi c’est bon pour eux. (...)

Les complotistes en tout cas ont parfaitement reçu le message du "décryptage", à ceci près qu’à force de s’entendre administrer par d’autres un sens inaperçu du monde qui les bousille en leur expliquant qu’il est le meilleur possible, ils ont entrepris de s’en chercher un autre par eux-mêmes. Ça ne donne sans doute pas des résultats bien fameux — mais à décrypteur, décrypteur et demi. C’est le "décryptage" lui-même qui, pour permettre aux journalistes de faire les entendus, a installé l’idée qu’il y avait quelque chose à aller chercher dessous. Les complotistes les prennent au mot, à ceci près que le quelque chose des décrypteurs étant toujours la même chose, eux se mettent en devoir d’aller chercher autre chose.

Cérébroscopie des complotistes

Alors on va chercher pourquoi l’autodécryptage des gueux décrypte de travers. Ici la science complotologique est à son meilleur. Comme les sciences les plus avancées, elle isole des "effets". Par exemple la physique connaît "l’effet Compton", "l’effet Doppler", "l’effet Einstein". La complotologie, pour sa part dispose de l’effet "millefeuille argumentatif". Impossible d’ouvrir un article sur Hold-up sans avoir à manger du millefeuille (argumentatif) — une feuille de vrai, une feuille de faux, une feuille de vrai... Un journaliste de Mediapart va plus loin et pose gravement la question : "pourquoi nos cerveaux sont-ils si perméables" (à l’aberration complotiste) ? "Nos" : pas de discrimination offensante. "Cerveaux" : parce que c’est là-dedans que ça se passe. La réception du complotisme, c’est une affaire "dans le cerveau". Un psychologue social, dont la psychologie sociale n’a plus rien de social (mais c’est la grande tendance de la psychologie sociale) saisit aussitôt la perche du "cerveau" : comme une invitation faite aux sciences cognitives et à leur panacée explicative : le biais. Pourquoi le "cerveau" (des complotistes) erre-t-il ? Parce qu’il est en proie à des biais (cognitifs) — marche aussi avec "pourquoi votre fille est muette" : elle est en proie à des biais (auditifs). Après le biais pâtissier (celui du millefeuille — particulièrement traître avec toute cette crème, on ne sait plus si on mange des feuilles vraies ou des feuilles fausses), le biais de confirmation, puis le biais d’intentionnalité (à qui profite le crime ?), etc. De ce qu’il y a des biais, il résulte que la pensée n’est pas droite. C’est scientifique, on a bien avancé.

(...)

Les paroles institutionnelles en ruines

Voilà donc où en est la "compréhension" du fait complotiste dans les médias assistés de leurs experts satellites. D’où naît irrésistiblement un désir de compréhension de cette "compréhension", ou plutôt de cette incompréhension, de cette compréhension tronquée sur l’essentiel. En réalité, que la formation des opinions reprenne toute liberté, pour le meilleur et pour le pire, quand l’autorité des paroles institutionnelles est à terre, ça n’a pas grand-chose de surprenant. Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre. On les comprend : l’examen de conscience promet d’être douloureux, autant s’en dispenser — et maintenir le problème bien circonscrit au cerveau des complotistes.

Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre

C’est que l’autorité des paroles institutionnelles n’a pas été effondrée du dehors par quelque choc exogène adverse : elle s’est auto-effondrée, sous le poids de tous ses manquements. À commencer par le mensonge des institutions de pouvoir. Les institutions de pouvoir mentent. Mediator : Servier ment. Dépakine : Sanofi ment. Bridgestone : Bridgetsone ment. 20 milliards de CICE pour créer un million d’emplois : le Medef ment. Mais aussi : Lubrizol, les pouvoirs publics mentent ; nucléaire, tout est sûr : les nucléocrates mentent. Loi de programmation de la recherche : Vidal ment (mais à un point extravagant). Violences policières, alors là, la fête : procureurs, préfecture, IGPN, ministres, président de la République, tout le monde ment, et avec une obscénité resplendissante qui ajoute beaucoup. Covid : hors-concours.

Le capitalisme néolibéral a déchaîné les intérêts les plus puissants, or là où les intérêts croissent, la vérité trépasse. C’est qu’il faut bien accommoder la contradiction entre des politiques publiques forcenées et l’effet qu’elles font aux gens. Or pour combler ce genre d’écart, quand on a décidé de ne pas toucher aux causes de l’écart, il n’y a que le secours des mots. Alors on arrose généreusement avec du discours. Au début on fait de la "pédagogie", on "décrypte". Et puis quand le décryptage ne marche plus, il ne reste plus qu’à mentir — à soutenir que ce qui est n’est pas ("la police républicaine ne se cagoule pas, elle agit à visage découvert"), ou que ce qui n’est pas est (on ferme des lits pour améliorer l’accueil des malades). Quand il n’est pas pure et simple répression, le néolibéralisme finissant n’est plus qu’une piscine de mensonge. Nous baignons là-dedans. C’est devenu une habitude, et en même temps on ne s’y habitue pas. Vient forcément le moment où l’autorité de la parole institutionnelle s’effondre parce que l’écart entre ce qu’elle dit et ce que les gens expérimentent n’est plus soutenable d’aucune manière.

Alors ça part en glissement de terrain, et tout s’en va avec, notamment les médias d’accompagnement, précisément parce qu’ils auront accompagné, trop accompagné, pendant trop longtemps. Ils auront tant répété, tant ratifié, se seront tant empressés. Les complotistes voient l’esprit critique de la presse se réarmer dans la journée même de la parution d’un documentaire. Mais, en matière d’esprit critique, ils se souviennent aussitôt des interviews de Léa Salamé, de Macron interrogé par TF1-France2-BFM, de la soupe servie à la louche argentée, de la parole gouvernementale outrageusement mensongère mais jamais reprise comme telle, ils se souviennent de deux mois d’occultation totale des violences policières contre les "gilets jaunes", ils se souviennent du journalisme de préfecture qui a si longtemps débité tels quels les communiqués de Beauvau, certifié l’envahissement de la Salpêtrière par des casseurs.(...) C’est long trente ans à ce régime, pendant que le chômage, la précarité, les inégalités, les suicides et les services publics explosent. Ça en fait du travail de sape dans les esprits.

En fait c’est très simple : pourquoi les paroles institutionnelles s’effondrent-elles ? Parce que, dans le temps même où elles présidaient au délabrement de la société, elles auront, chacune dans leur genre, ou trop menti, ou trop couvert, ou trop laissé passer, ou trop regardé ailleurs, ou trop léché, que ça s’est trop vu, et qu’à un moment, ça se paye. Le complotisme en roue libre, c’est le moment de l’addition. Il faut vraiment être journaliste, ou expert de Conspiracy Watch pour ne pas voir ça. Trente ans de ruine à petit feu de l’autorité institutionnelle, et puis un beau jour, l’immeuble entier qui s’effondre : le discrédit. Mais normalement on sait ça : le crédit détruit, ne se reconstruit pas rapidement. Maintenant, il y a les ruines, et il va falloir faire au milieu des gravats pour un moment. On comprend que la plupart des médias, qui comptent au nombre des gravats, ne se résolvent pas à regarder le tableau. C’est bien pourquoi il fallait faire aussitôt un hold-up sur Hold-up : pour en fixer la "compréhension", et qu’elle ne s’en aille surtout pas ailleurs.

Rééducation et bienveillance

En attendant, la soupe est renversée et on a les complotistes sur les bras. Comment faire ? On a compris que l’heure de les traiter de cinglés était passée et qu’il urge de trouver autre chose pour endiguer la marée. Mais quoi ? Dans l’immédiat, pas grand-chose hélas, en tout cas pas ça. Il va falloir se faire à l’idée que la ruine des constructions de longue période, comme le crédit fait à la parole institutionnelle, ne se répare que par des reconstructions de longue période (par exemple, la destruction présente de la chaîne éducation-recherche prendra des décennies à être surmontée). Tant que la phalange anticomplotiste continuera d’apparaître telle qu’elle est, c’est-à-dire soudée au bloc des pouvoirs, le crédit de l’ensemble restera à zéro. En réalité, tant que la masse "médias" ne se fragmentera pas, tant que ne s’en détachera pas une fraction significative, qui rompe avec la position globale de ratification de l’ordre néolibéral et de déférence à l’endroit de tous ses pouvoirs, les clients du complotisme continueront de n’y voir qu’un appareil homogène de propagande — et d’aller chercher "ailleurs". Les gens ne vont chercher un "ailleurs" au-dehors que lorsque le champ institutionnel a échoué à aménager un "ailleurs" au-dedans. Mais quel aggiornamento, quelles révisions déchirantes, cette rupture, maintenant, ne suppose-t-elle pas ?

Pour l’heure, incapable, la parole autorisée cherche fébrilement quelque autre ressource — mais forcément au voisinage de ses formes de pensée invétérées. Idée de génie et redéploiement pédagogique : on va aller leur parler. Mais gentiment cette fois. On va leur écrire des lettres, en leur disant qu’ils sont nos amis — c’est donc la version Libération. Il y a celle du Monde. Si l’ambiance générale n’était pas si flippante, ce serait à se rouler par terre de rire. Tout y est. On va chercher Valérie Igounet de Conspiracy Watch — on avait l’habitude jusqu’ici de Rudy Reichstadt mais lui est trop épais, c’était l’anticomplotisme première manière, maintenant on ne peut plus le sortir. Dans la saison 2, ça donne : "Il faut réfuter par des faits, décrypter, mais sans être dans l’accusation ou la moquerie". Voilà la solution : tout dans l’onctueux, l’humain et la bienveillance — on est excellemment partis. "On est sur un fil", ajoute quand même l’experte dans un souffle. Tu l’as dit Valérie.

Tristan Mendès-France, lui, explique à peu de choses près qu’on a le stock des zinzins sur les bras et qu’avec eux, c’est foutu, il faudra faire avec. Mais que tout notre effort doit aller à enrayer les nouveaux recrutements : "il faut viser les primo-arrivants, faire de la prévention". Valérie Igounet a déjà commencé : elle mène, nous explique Le Monde, "de nombreux ateliers avec l’Observatoire du complotisme auprès d’enfants" — il faut prendre les "primo-arrivants" de loin. Tout le problème de l’anticomplotisme, c’est qu’il peut prononcer l’âme claire une phrase pareille qui, normalement, devrait faire froid dans le dos. Qu’on n’aille pas croire à une embardée individuelle : c’est la ligne générale. Le nouvel expert gyroscopique — il tourne sur à peu près tous les médias, France Culture, Le Monde, Regards —, Thomas Huchon, pense également qu’il faut "faire de l’éducation aux médias (…) en gros de la prévention pour vacciner contre l’épidémie de “fake news”". On se croirait au point de presse de Jérôme Salomon, et ça n’est pas un hasard. Car c’est cela qu’on trouve dans une tête d’anticomplotiste : des images de bacilles, de prophylaxie et de cordon sanitaire. De politique ? Aucunement. Ça n’est pas une affaire de politique, ou de discours politique : c’est une affaire médicale.

On voit d’ici à quoi pourra ressembler "l’éducation", ou plutôt la rééducation, aux médias. L’essentiel est que l’analyse du complotisme soit ramenée à son cadre : d’un côté le pathologique, de l’autre le pédagogique. Et puis, dans le camp-école réaménagé, les éducateurs, nous est-il désormais garanti, seront pleins d’empathie et d’écoute : "la diffusion du complotisme, conclut l’article du Monde, pose un défi à une multitude d’acteurs qui doivent plus que jamais prendre le temps d’expliquer, de démontrer, sans ostraciser ni caricaturer". De ne rien comprendre à ce point, c’en est extravagant. Finalement, rien n’a bougé d’un iota, le complotisme a encore de beaux jours devant lui. On se croirait revenu dans Tintin au Congo, mais où on aurait rappelé les missionnaires pour leur faire faire une UV de psycho avant de les renvoyer sur le terrain : "Nous n’économiserons ni notre patience ni notre bonté pour vous faire apercevoir que les esprits de la forêt n’existent pas. Puisque ce qui existe, c’est Dieu". 

Auteur: Lordon Fredéric

Info: https://blog.mondediplo.net/paniques-anticomplotistes, 25 nov 2020

[ contre-mesures sémantiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

intelligence artificielle

Apprendre l'anglais n'est pas une tâche facile, comme le savent d'innombrables étudiants. Mais lorsque l'étudiant est un ordinateur, une approche fonctionne étonnamment bien : Il suffit d'alimenter un modèle mathématique géant, appelé réseau neuronal, avec des montagnes de textes provenant d'Internet. C'est le principe de fonctionnement des modèles linguistiques génératifs tels que ChatGPT d'OpenAI, dont la capacité à tenir une conversation cohérente (à défaut d'être toujours sincère) sur un large éventail de sujets a surpris les chercheurs et le public au cours de l'année écoulée.

Mais cette approche présente des inconvénients. D'une part, la procédure de "formation" nécessaire pour transformer de vastes archives textuelles en modèles linguistiques de pointe est coûteuse et prend beaucoup de temps. D'autre part, même les personnes qui forment les grands modèles linguistiques ont du mal à comprendre leur fonctionnement interne, ce qui, à son tour, rend difficile la prévision des nombreuses façons dont ils peuvent échouer.

Face à ces difficultés, certains chercheurs ont choisi d'entraîner des modèles plus petits sur des ensembles de données plus restreints, puis d'étudier leur comportement. "C'est comme le séquençage du génome de la drosophile par rapport au séquençage du génome humain", explique Ellie Pavlick, chercheuse sur les modèles de langage à l'université de Brown.

Dans un article récemment publié sur le serveur scientifique arxiv.org, deux chercheurs de Microsoft ont présenté une nouvelle méthode pour former de minuscules modèles de langage : Les élever avec un régime strict d'histoires pour enfants.

RÉSEAUX NEURONAUX

Des chercheurs acquièrent une nouvelle compréhension à partir d'une simple IA  

Les chercheurs en apprentissage automatique ont compris cette leçon. GPT-3.5, le grand modèle linguistique qui alimente l'interface ChatGPT, compte près de 200 milliards de paramètres et a été entraîné sur un ensemble de données comprenant des centaines de milliards de mots (OpenAI n'a pas publié les chiffres correspondants pour son successeur, GPT-4).  L'entraînement de modèles aussi vastes nécessite généralement au moins 1 000 processeurs spécialisés, appelés GPU, fonctionnant en parallèle pendant des semaines. Seules quelques entreprises peuvent réunir les ressources nécessaires, sans parler de l'entraînement et de la comparaison de différents modèles.

Les deux chercheurs ont montré que des modèles linguistiques des milliers de fois plus petits que les systèmes de pointe actuels apprenaient rapidement à raconter des histoires cohérentes et grammaticalement justes lorsqu'ils étaient formés de cette manière. Leurs résultats indiquent de nouvelles pistes de recherche qui pourraient être utiles pour former des modèles plus importants et comprendre leur comportement.

"J'ai trouvé tout  ça très instructif", a déclaré Chandra Bhagavatula, chercheur sur les modèles de langage à l'Allen Institute for Artificial Intelligence de Seattle. "Le concept lui-même est très intéressant.

Il était une fois

Les réseaux neuronaux au cœur des modèles de langage sont des structures mathématiques vaguement inspirées du cerveau humain. Chacun d'entre eux contient de nombreux neurones artificiels disposés en couches, avec des connexions entre les neurones des couches adjacentes. Le comportement du réseau neuronal est régi par la force de ces connexions, appelées paramètres. Dans un modèle linguistique, les paramètres contrôlent les mots que le modèle peut produire ensuite, compte tenu d'une invite initiale et des mots qu'il a déjà générés.

Un modèle ne prend véritablement vie qu'au cours de la formation, lorsqu'il compare de manière répétée ses propres résultats au texte de son ensemble de données de formation et qu'il ajuste ses paramètres afin d'accroître la ressemblance. Un réseau non entraîné avec des paramètres aléatoires est trivialement facile à assembler à partir de quelques lignes de code, mais il ne produira que du charabia. Après l'entraînement, il peut souvent poursuivre de manière plausible un texte peu familier. Les modèles de plus grande taille sont souvent soumis à des réglages plus fins qui leur apprennent à répondre à des questions et à suivre des instructions, mais l'essentiel de la formation consiste à maîtriser la prédiction des mots.

Pour réussir à prédire des mots, un modèle linguistique doit maîtriser de nombreuses compétences différentes. Par exemple, les règles de la grammaire anglaise suggèrent que le mot suivant le mot "going" sera probablement "to", quel que soit le sujet du texte. En outre, un système a besoin de connaissances factuelles pour compléter "la capitale de la France est", et compléter un passage contenant le mot "not" nécessite une connaissance rudimentaire de la logique.

"Le langage brut est très compliqué", explique Timothy Nguyen, chercheur en apprentissage automatique chez DeepMind. "Pour que des capacités linguistiques intéressantes apparaissent, les gens ont eu recours à l'idée que plus il y a de données, mieux c'est".

(photo) Ronen Eldan s'est rendu compte qu'il pouvait utiliser les histoires d'enfants générées par de grands modèles linguistiques pour en entraîner rapidement de plus petits.

Introduction

Ronen Eldan, mathématicien qui a rejoint Microsoft Research en 2022 pour étudier les modèles de langage génératifs, souhaitait développer un moyen moins coûteux et plus rapide d'explorer leurs capacités. Le moyen naturel d'y parvenir était d'utiliser un petit ensemble de données, ce qui signifiait qu'il devait entraîner les modèles à se spécialiser dans une tâche spécifique, afin qu'ils ne s'éparpillent pas. Au départ, il voulait entraîner les modèles à résoudre une certaine catégorie de problèmes mathématiques, mais un après-midi, après avoir passé du temps avec sa fille de 5 ans, il s'est rendu compte que les histoires pour enfants convenaient parfaitement. "L'idée m'est venue littéralement après lui avoir lu une histoire", a-t-il déclaré.

Pour générer des histoires cohérentes pour les enfants, un modèle de langage devrait apprendre des faits sur le monde, suivre les personnages et les événements, et observer les règles de grammaire - des versions plus simples des défis auxquels sont confrontés les grands modèles. Mais les grands modèles formés sur des ensembles de données massives apprennent d'innombrables détails non pertinents en même temps que les règles qui comptent vraiment. Eldan espérait que la brièveté et le vocabulaire limité des histoires pour enfants rendraient l'apprentissage plus gérable pour les petits modèles, ce qui les rendrait à la fois plus faciles à former et plus faciles à comprendre.

Dans le monde des modèles de langage, cependant, le terme "petit" est relatif : Un ensemble de données mille fois plus petit que celui utilisé pour former GPT-3.5 devrait encore contenir des millions d'histoires. "Je ne sais pas combien d'argent vous voulez dépenser, mais je suppose que vous n'allez pas engager des professionnels pour écrire quelques millions de nouvelles", a déclaré M. Nguyen.

Il faudrait un auteur extraordinairement prolifique pour satisfaire des lecteurs aussi voraces, mais Eldan avait quelques candidats en tête. Qui peut mieux écrire pour un public de petits modèles linguistiques que pour de grands modèles ?

Toys stories

Eldan a immédiatement entrepris de créer une bibliothèque d'histoires synthétiques pour enfants générées par de grands modèles linguistiques. Mais il a rapidement découvert que même les modèles de pointe ne sont pas naturellement très créatifs. Si l'on demande à GPT-4 d'écrire des histoires adaptées à des enfants de 4 ans, explique Eldan, "environ un cinquième des histoires concernera des enfants qui vont au parc et qui ont peur des toboggans". C'est apparemment la quintessence des histoires pour enfants d'âge préscolaire, selon l'Internet.

La solution a consisté à ajouter un peu d'aléatoire dans le message. Tout d'abord, Eldan a utilisé le GPT-4 pour générer une liste de 1 500 noms, verbes et adjectifs qu'un enfant de 4 ans pourrait connaître - suffisamment courte pour qu'il puisse facilement la vérifier lui-même. Il a ensuite écrit un programme informatique simple qui demanderait à plusieurs reprises à GPT-3.5 ou à GPT-4 de générer une histoire adaptée à l'âge de l'enfant, comprenant trois mots aléatoires de la liste, ainsi qu'un détail supplémentaire choisi au hasard, comme une fin heureuse ou un rebondissement de l'intrigue. Les histoires obtenues, heureusement, étaient moins axées sur des diapositives effrayantes.

Eldan disposait désormais d'une procédure pour produire des données de formation à la demande, mais il n'avait aucune idée du nombre d'histoires dont il aurait besoin pour former un modèle fonctionnel, ni de la taille de ce modèle. C'est alors qu'il s'est associé à Yuanzhi Li, chercheur en apprentissage automatique chez Microsoft et à l'université Carnegie Mellon, pour essayer différentes possibilités, en tirant parti du fait que les petits modèles peuvent être formés très rapidement. La première étape consistait à décider comment évaluer leurs modèles.

Introduction

Dans la recherche sur les modèles de langage - comme dans toute salle de classe - la notation est un sujet délicat. Il n'existe pas de rubrique parfaite qui englobe tout ce que les chercheurs veulent savoir, et les modèles qui excellent dans certaines tâches échouent souvent de manière spectaculaire dans d'autres. Au fil du temps, les chercheurs ont mis au point divers critères de référence standard basés sur des questions dont les réponses ne sont pas ambiguës, ce qui est une bonne approche si vous essayez d'évaluer des compétences spécifiques. Mais Eldan et Li se sont intéressés à quelque chose de plus nébuleux : quelle doit être la taille réelle des modèles linguistiques si l'on simplifie le langage autant que possible ?

"Pour vérifier directement si le modèle parle anglais, je pense que la seule chose à faire est de laisser le modèle générer de l'anglais de manière ouverte", a déclaré M. Eldan.

Il n'y a que deux façons de mesurer les performances d'un modèle sur des questions aussi qualitatives : S'appuyer sur des évaluateurs humains ou se tourner à nouveau vers le GPT-4. Les deux chercheurs ont opté pour cette dernière solution, laissant les grands modèles à la fois rédiger les manuels et noter les dissertations.

Bhagavatula a déclaré qu'il aurait aimé voir comment les évaluations de GPT-4 se comparaient à celles des correcteurs humains - GPT-4 peut être biaisé en faveur des modèles qu'il a aidé à former, et l'opacité des modèles de langage rend difficile la quantification de tels biais. Mais il ne pense pas que de telles subtilités affecteraient les comparaisons entre différents modèles formés sur des ensembles similaires d'histoires synthétiques - l'objectif principal du travail d'Eldan et Li.

Eldan et Li ont utilisé une procédure en deux étapes pour évaluer chacun de leurs petits modèles après la formation. Tout d'abord, ils ont présenté au petit modèle la première moitié d'une histoire distincte de celles de l'ensemble des données d'apprentissage, de manière à ce qu'il génère une nouvelle fin, en répétant ce processus avec 50 histoires de test différentes. Ensuite, ils ont demandé à GPT-4 d'évaluer chacune des fins du petit modèle en fonction de trois catégories : créativité, grammaire et cohérence avec le début de l'histoire. Ils ont ensuite fait la moyenne des notes obtenues dans chaque catégorie, obtenant ainsi trois notes finales par modèle.

Avec cette procédure en main, Eldan et Li étaient enfin prêts à comparer les différents modèles et à découvrir quels étaient les étudiants les plus brillants.

Résultats des tests

Après quelques explorations préliminaires, les deux chercheurs ont opté pour un ensemble de données de formation contenant environ 2 millions d'histoires. Ils ont ensuite utilisé cet ensemble de données, baptisé TinyStories, pour entraîner des modèles dont la taille varie de 1 million à 30 millions de paramètres, avec un nombre variable de couches. Le travail a été rapide : En utilisant seulement quatre GPU, l'entraînement du plus grand de ces modèles n'a pas pris plus d'une journée.

Les plus petits modèles ont eu du mal. Par exemple, l'une des histoires testées commence par un homme à l'air méchant qui dit à une fille qu'il va lui prendre son chat. Un modèle à un million de paramètres s'est retrouvé bloqué dans une boucle où la fille répète sans cesse à l'homme qu'elle veut être son amie. Mais les modèles plus grands, qui sont encore des milliers de fois plus petits que GPT-3.5, ont obtenu des résultats surprenants. La version à 28 millions de paramètres racontait une histoire cohérente, même si la fin était sinistre : "Katie s'est mise à pleurer, mais l'homme s'en fichait. Il a emporté le chat et Katie n'a plus jamais revu son chat. Fin de l'histoire".

En plus de tester leurs propres modèles, Eldan et Li ont soumis le même défi au GPT-2 d'OpenAI, un modèle de 1,5 milliard de paramètres publié en 2019. Le résultat a été bien pire - avant la fin abrupte de l'histoire, l'homme menace d'emmener la jeune fille au tribunal, en prison, à l'hôpital, à la morgue et enfin au crématorium.

Introduction

Selon M. Nguyen, il est passionnant que des modèles aussi petits soient aussi fluides, mais il n'est peut-être pas surprenant que GPT-2 ait eu du mal à accomplir la tâche : il s'agit d'un modèle plus grand, mais loin de l'état de l'art, et il a été formé sur un ensemble de données très différent. "Un enfant en bas âge qui ne s'entraînerait qu'à des tâches d'enfant en bas âge, comme jouer avec des jouets, obtiendrait de meilleurs résultats que vous ou moi", a-t-il fait remarquer. "Nous ne nous sommes pas spécialisés dans cette chose simple.

Les comparaisons entre les différents modèles de TinyStories ne souffrent pas des mêmes facteurs de confusion. Eldan et Li ont observé que les réseaux comportant moins de couches mais plus de neurones par couche étaient plus performants pour répondre aux questions nécessitant des connaissances factuelles ; inversement, les réseaux comportant plus de couches et moins de neurones par couche étaient plus performants pour garder en mémoire les personnages et les points de l'intrigue situés plus tôt dans l'histoire. Bhagavatula a trouvé ce résultat particulièrement intriguant. S'il peut être reproduit dans des modèles plus vastes, "ce serait un résultat vraiment intéressant qui pourrait découler de ce travail", a-t-il déclaré.

Eldan et Li ont également étudié comment les capacités de leurs petits modèles dépendaient de la durée de la période de formation. Dans tous les cas, les modèles maîtrisaient d'abord la grammaire, puis la cohérence. Pour Eldan, ce schéma illustre comment les différences dans les structures de récompense entraînent des différences dans les schémas d'acquisition du langage entre les réseaux neuronaux et les enfants. Pour les modèles de langage, qui apprennent en prédisant des mots, "l'incitation pour les mots "je veux avoir" est aussi importante que pour les mots "crème glacée"", a-t-il déclaré. Les enfants, en revanche, "ne se soucient pas de savoir s'ils disent 'j'aimerais avoir de la glace' ou simplement 'glace, glace, glace'".

Qualité contre quantité

Eldan et Li espèrent que cette étude incitera d'autres chercheurs à entraîner différents modèles sur l'ensemble des données de TinyStories et à comparer leurs capacités. Mais il est souvent difficile de prédire quelles caractéristiques des petits modèles apparaîtront également dans les plus grands.

"Peut-être que les modèles de vision chez la souris sont de très bons substituts de la vision humaine, mais les modèles de dépression chez la souris sont-ils de bons modèles de la dépression chez l'homme ? a déclaré M. Pavlick. "Pour chaque cas, c'est un peu différent.

Le succès des modèles TinyStories suggère également une leçon plus large. L'approche standard pour compiler des ensembles de données de formation consiste à aspirer des textes sur l'internet, puis à filtrer les déchets. Le texte synthétique généré par des modèles de grande taille pourrait constituer une autre façon d'assembler des ensembles de données de haute qualité qui n'auraient pas besoin d'être aussi volumineux.

"Nous avons de plus en plus de preuves que cette méthode est très efficace, non seulement pour les modèles de la taille de TinyStories, mais aussi pour les modèles plus importants", a déclaré M. Eldan. Ces preuves proviennent d'une paire d'articles de suivi sur les modèles à un milliard de paramètres, rédigés par Eldan, Li et d'autres chercheurs de Microsoft. Dans le premier article, ils ont entraîné un modèle à apprendre le langage de programmation Python en utilisant des extraits de code générés par GPT-3.5 ainsi que du code soigneusement sélectionné sur l'internet. Dans le second, ils ont complété l'ensemble de données d'entraînement par des "manuels" synthétiques couvrant un large éventail de sujets, afin d'entraîner un modèle linguistique à usage général. Lors de leurs tests, les deux modèles ont été comparés favorablement à des modèles plus importants formés sur des ensembles de données plus vastes. Mais l'évaluation des modèles linguistiques est toujours délicate, et l'approche des données d'entraînement synthétiques n'en est qu'à ses balbutiements - d'autres tests indépendants sont nécessaires.

Alors que les modèles linguistiques de pointe deviennent de plus en plus volumineux, les résultats surprenants de leurs petits cousins nous rappellent qu'il y a encore beaucoup de choses que nous ne comprenons pas, même pour les modèles les plus simples. M. Nguyen s'attend à ce que de nombreux autres articles explorent l'approche inaugurée par TinyStories.

"La question est de savoir où et pourquoi la taille a de l'importance", a-t-il déclaré. "Il devrait y avoir une science à ce sujet, et cet article est, je l'espère, le début d'une riche histoire.



 



 

Auteur: Internet

Info: https://www.quantamagazine.org/ Ben Brubaker, 5 octobre 2023

[ synthèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

palier cognitif

Des physiciens observent une transition de phase quantique "inobservable"

Mesure et l'intrication ont toutes deux une saveur non locale "étrange". Aujourd'hui, les physiciens exploitent cette nonlocalité pour sonder la diffusion de l'information quantique et la contrôler.

La mesure est l'ennemi de l'intrication. Alors que l'intrication se propage à travers une grille de particules quantiques - comme le montre cette simulation - que se passerait-il si l'on mesurait certaines des particules ici et là ? Quel phénomène triompherait ?

En 1935, Albert Einstein et Erwin Schrödinger, deux des physiciens les plus éminents de l'époque, se disputent sur la nature de la réalité.

Einstein avait fait des calculs et savait que l'univers devait être local, c'est-à-dire qu'aucun événement survenant à un endroit donné ne pouvait affecter instantanément un endroit éloigné. Mais Schrödinger avait fait ses propres calculs et savait qu'au cœur de la mécanique quantique se trouvait une étrange connexion qu'il baptisa "intrication" et qui semblait remettre en cause l'hypothèse de localité d'Einstein.

Lorsque deux particules sont intriquées, ce qui peut se produire lors d'une collision, leurs destins sont liés. En mesurant l'orientation d'une particule, par exemple, on peut apprendre que sa partenaire intriquée (si et quand elle est mesurée) pointe dans la direction opposée, quel que soit l'endroit où elle se trouve. Ainsi, une mesure effectuée à Pékin pourrait sembler affecter instantanément une expérience menée à Brooklyn, violant apparemment l'édit d'Einstein selon lequel aucune influence ne peut voyager plus vite que la lumière.

Einstein n'appréciait pas la portée de l'intrication (qu'il qualifiera plus tard d'"étrange") et critiqua la théorie de la mécanique quantique, alors naissante, comme étant nécessairement incomplète. Schrödinger défendit à son tour la théorie, dont il avait été l'un des pionniers. Mais il comprenait le dégoût d'Einstein pour l'intrication. Il admit que la façon dont elle semble permettre à un expérimentateur de "piloter" une expérience autrement inaccessible est "plutôt gênante".

Depuis, les physiciens se sont largement débarrassés de cette gêne. Ils comprennent aujourd'hui ce qu'Einstein, et peut-être Schrödinger lui-même, avaient négligé : l'intrication n'a pas d'influence à distance. Elle n'a pas le pouvoir de provoquer un résultat spécifique à distance ; elle ne peut distribuer que la connaissance de ce résultat. Les expériences sur l'intrication, telles que celles qui ont remporté le prix Nobel en 2022, sont maintenant devenues monnaie courante.

Au cours des dernières années, une multitude de recherches théoriques et expérimentales ont permis de découvrir une nouvelle facette du phénomène, qui se manifeste non pas par paires, mais par constellations de particules. L'intrication se propage naturellement dans un groupe de particules, établissant un réseau complexe de contingences. Mais si l'on mesure les particules suffisamment souvent, en détruisant l'intrication au passage, il est possible d'empêcher la formation du réseau. En 2018, trois groupes de théoriciens ont montré que ces deux états - réseau ou absence de réseau - rappellent des états familiers de la matière tels que le liquide et le solide. Mais au lieu de marquer une transition entre différentes structures de la matière, le passage entre la toile et l'absence de toile indique un changement dans la structure de l'information.

"Il s'agit d'une transition de phase dans l'information", explique Brian Skinner, de l'université de l'État de l'Ohio, l'un des physiciens qui a identifié le phénomène en premier. "Les propriétés de l'information, c'est-à-dire la manière dont l'information est partagée entre les choses, subissent un changement très brutal.

Plus récemment, un autre trio d'équipes a tenté d'observer cette transition de phase en action. Elles ont réalisé une série de méta-expériences pour mesurer comment les mesures elles-mêmes affectent le flux d'informations. Dans ces expériences, ils ont utilisé des ordinateurs quantiques pour confirmer qu'il est possible d'atteindre un équilibre délicat entre les effets concurrents de l'intrication et de la mesure. La découverte de la transition a lancé une vague de recherches sur ce qui pourrait être possible lorsque l'intrication et la mesure entrent en collision.

L'intrication "peut avoir de nombreuses propriétés différentes, bien au-delà de ce que nous avions imaginé", a déclaré Jedediah Pixley, théoricien de la matière condensée à l'université Rutgers, qui a étudié les variations de la transition.

Un dessert enchevêtré

L'une des collaborations qui a permis de découvrir la transition d'intrication est née autour d'un pudding au caramel collant dans un restaurant d'Oxford, en Angleterre. En avril 2018, Skinner rendait visite à son ami Adam Nahum, un physicien qui travaille actuellement à l'École normale supérieure de Paris. Au fil d'une conversation tentaculaire, ils se sont retrouvés à débattre d'une question fondamentale concernant l'enchevêtrement et l'information.

Tout d'abord, un petit retour en arrière. Pour comprendre le lien entre l'intrication et l'information, imaginons une paire de particules, A et B, chacune dotée d'un spin qui peut être mesuré comme pointant vers le haut ou vers le bas. Chaque particule commence dans une superposition quantique de haut et de bas, ce qui signifie qu'une mesure produit un résultat aléatoire - soit vers le haut, soit vers le bas. Si les particules ne sont pas intriquées, les mesurer revient à jouer à pile ou face : Le fait d'obtenir pile ou face avec l'une ne vous dit rien sur ce qui se passera avec l'autre.

Mais si les particules sont intriquées, les deux résultats seront liés. Si vous trouvez que B pointe vers le haut, par exemple, une mesure de A indiquera qu'il pointe vers le bas. La paire partage une "opposition" qui ne réside pas dans l'un ou l'autre membre, mais entre eux - un soupçon de la non-localité qui a troublé Einstein et Schrödinger. L'une des conséquences de cette opposition est qu'en mesurant une seule particule, on en apprend plus sur l'autre. "La mesure de B m'a d'abord permis d'obtenir des informations sur A", a expliqué M. Skinner. "Cela réduit mon ignorance sur l'état de A."

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, tu mesurais certains spins ici et là ? Si tu les mesurais tous en permanence, l'intrication disparaîtrait de façon ennuyeuse. Mais si tu les mesures sporadiquement, par quelques spins seulement, quel phénomène sortira vainqueur ? L'intrication ou la mesure ?

L'ampleur avec laquelle une mesure de B réduit votre ignorance de A s'appelle l'entropie d'intrication et, comme tout type d'information, elle se compte en bits. L'entropie d'intrication est le principal moyen dont disposent les physiciens pour quantifier l'intrication entre deux objets ou, de manière équivalente, la quantité d'informations sur l'un stockées de manière non locale dans l'autre. Une entropie d'intrication nulle signifie qu'il n'y a pas d'intrication ; mesurer B ne révèle rien sur A. Une entropie d'intrication élevée signifie qu'il y a beaucoup d'intrication ; mesurer B vous apprend beaucoup sur A.

Au cours du dessert, Skinner et Nahum ont poussé cette réflexion plus loin. Ils ont d'abord étendu la paire de particules à une chaîne aussi longue que l'on veut bien l'imaginer. Ils savaient que selon l'équation éponyme de Schrödinger, l'analogue de F = ma en mécanique quantique, l'intrication passerait d'une particule à l'autre comme une grippe. Ils savaient également qu'ils pouvaient calculer le degré d'intrication de la même manière : Si l'entropie d'intrication est élevée, cela signifie que les deux moitiés de la chaîne sont fortement intriquées. Si l'entropie d'intrication est élevée, les deux moitiés sont fortement intriquées. Mesurer la moitié des spins vous donnera une bonne idée de ce à quoi vous attendre lorsque vous mesurerez l'autre moitié.

Ensuite, ils ont déplacé la mesure de la fin du processus - lorsque la chaîne de particules avait déjà atteint un état quantique particulier - au milieu de l'action, alors que l'intrication se propageait. Ce faisant, ils ont créé un conflit, car la mesure est l'ennemi mortel de l'intrication. S'il n'est pas modifié, l'état quantique d'un groupe de particules reflète toutes les combinaisons possibles de hauts et de bas que l'on peut obtenir en mesurant ces particules. Mais la mesure fait s'effondrer un état quantique et détruit toute intrication qu'il contient. Vous obtenez ce que vous obtenez, et toutes les autres possibilités disparaissent.

Nahum a posé la question suivante à Skinner : Et si, alors que l'intrication est en train de se propager, on mesurait certains spins ici et là ? Les mesurer tous en permanence ferait disparaître toute l'intrication d'une manière ennuyeuse. Mais si on en mesure sporadiquement quelques spins seulement, quel phénomène sortirait vainqueur ? L'intrication ou la mesure ?

Skinner, répondit qu'il pensait que la mesure écraserait l'intrication. L'intrication se propage de manière léthargique d'un voisin à l'autre, de sorte qu'elle ne croît que de quelques particules à la fois. Mais une série de mesures pourrait toucher simultanément de nombreuses particules tout au long de la longue chaîne, étouffant ainsi l'intrication sur une multitude de sites. S'ils avaient envisagé cet étrange scénario, de nombreux physiciens auraient probablement convenu que l'intrication ne pouvait pas résister aux mesures.

"Selon Ehud Altman, physicien spécialiste de la matière condensée à l'université de Californie à Berkeley, "il y avait une sorte de folklore selon lequel les états très intriqués sont très fragiles".

Mais Nahum, qui réfléchit à cette question depuis l'année précédente, n'est pas de cet avis. Il imaginait que la chaîne s'étendait dans le futur, instant après instant, pour former une sorte de clôture à mailles losangées. Les nœuds étaient les particules, et les connexions entre elles représentaient les liens à travers lesquels l'enchevêtrement pouvait se former. Les mesures coupant les liens à des endroits aléatoires. Si l'on coupe suffisamment de maillons, la clôture s'écroule. L'intrication ne peut pas se propager. Mais jusque là, selon Nahum, même une clôture en lambeaux devrait permettre à l'intrication de se propager largement.

Nahum a réussi à transformer un problème concernant une occurrence quantique éphémère en une question concrète concernant une clôture à mailles losangées. Il se trouve qu'il s'agit d'un problème bien étudié dans certains cercles - la "grille de résistance vandalisée" - et que Skinner avait étudié lors de son premier cours de physique de premier cycle, lorsque son professeur l'avait présenté au cours d'une digression.

"C'est à ce moment-là que j'ai été vraiment enthousiasmé", a déclaré M. Skinner. "Il n'y a pas d'autre moyen de rendre un physicien plus heureux que de montrer qu'un problème qui semble difficile est en fait équivalent à un problème que l'on sait déjà résoudre."

Suivre l'enchevêtrement

Mais leurs plaisanteries au dessert n'étaient rien d'autre que des plaisanteries. Pour tester et développer rigoureusement ces idées, Skinner et Nahum ont joint leurs forces à celles d'un troisième collaborateur, Jonathan Ruhman, de l'université Bar-Ilan en Israël. L'équipe a simulé numériquement les effets de la coupe de maillons à différentes vitesses dans des clôtures à mailles losangées. Ils ont ensuite comparé ces simulations de réseaux classiques avec des simulations plus précises mais plus difficiles de particules quantiques réelles, afin de s'assurer que l'analogie était valable. Ils ont progressé lentement mais sûrement.

Puis, au cours de l'été 2018, ils ont appris qu'ils n'étaient pas les seuls à réfléchir aux mesures et à l'intrication.

Matthew Fisher, éminent physicien de la matière condensée à l'université de Californie à Santa Barbara, s'était demandé si l'intrication entre les molécules dans le cerveau pouvait jouer un rôle dans notre façon de penser. Dans le modèle que lui et ses collaborateurs étaient en train de développer, certaines molécules se lient occasionnellement d'une manière qui agit comme une mesure et tue l'intrication. Ensuite, les molécules liées changent de forme d'une manière qui pourrait créer un enchevêtrement. Fisher voulait savoir si l'intrication pouvait se développer sous la pression de mesures intermittentes - la même question que Nahum s'était posée.

"C'était nouveau", a déclaré M. Fisher. "Personne ne s'était penché sur cette question avant 2018.

Dans le cadre d'une coopération universitaire, les deux groupes ont coordonné leurs publications de recherche l'un avec l'autre et avec une troisième équipe étudiant le même problème, dirigée par Graeme Smith de l'université du Colorado, à Boulder.

"Nous avons tous travaillé en parallèle pour publier nos articles en même temps", a déclaré M. Skinner.

En août, les trois groupes ont dévoilé leurs résultats. L'équipe de Smith était initialement en désaccord avec les deux autres, qui soutenaient tous deux le raisonnement de Nahum inspiré de la clôture : Dans un premier temps, l'intrication a dépassé les taux de mesure modestes pour se répandre dans une chaîne de particules, ce qui a entraîné une entropie d'intrication élevée. Puis, lorsque les chercheurs ont augmenté les mesures au-delà d'un taux "critique", l'intrication s'est arrêtée - l'entropie d'intrication a chuté.

La transition semblait exister, mais il n'était pas évident pour tout le monde de comprendre où l'argument intuitif - selon lequel l'intrication de voisin à voisin devait être anéantie par les éclairs généralisés de la mesure - s'était trompé.

Dans les mois qui ont suivi, Altman et ses collaborateurs à Berkeley ont découvert une faille subtile dans le raisonnement. "On ne tient pas compte de la diffusion (spread) de l'information", a déclaré M. Altman.

Le groupe d'Altman a souligné que toutes les mesures ne sont pas très informatives, et donc très efficaces pour détruire l'intrication. En effet, les interactions aléatoires entre les particules de la chaîne ne se limitent pas à l'enchevêtrement. Elles compliquent également considérablement l'état de la chaîne au fil du temps, diffusant effectivement ses informations "comme un nuage", a déclaré M. Altman. Au bout du compte, chaque particule connaît l'ensemble de la chaîne, mais la quantité d'informations dont elle dispose est minuscule. C'est pourquoi, a-t-il ajouté, "la quantité d'intrication que l'on peut détruire [à chaque mesure] est ridiculement faible".

En mars 2019, le groupe d'Altman a publié une prépublication détaillant comment la chaîne cachait efficacement les informations des mesures et permettait à une grande partie de l'intrication de la chaîne d'échapper à la destruction. À peu près au même moment, le groupe de Smith a mis à jour ses conclusions, mettant les quatre groupes d'accord.

La réponse à la question de Nahum était claire. Une "transition de phase induite par la mesure" était théoriquement possible. Mais contrairement à une transition de phase tangible, telle que le durcissement de l'eau en glace, il s'agissait d'une transition entre des phases d'information - une phase où l'information reste répartie en toute sécurité entre les particules et une phase où elle est détruite par des mesures répétées.

C'est en quelque sorte ce que l'on rêve de faire dans la matière condensée, a déclaré M. Skinner, à savoir trouver une transition entre différents états. "Maintenant, on se demande comment on le voit", a-t-il poursuivi.

 Au cours des quatre années suivantes, trois groupes d'expérimentateurs ont détecté des signes du flux distinct d'informations.

Trois façons de voir l'invisible

Même l'expérience la plus simple permettant de détecter la transition intangible est extrêmement difficile. "D'un point de vue pratique, cela semble impossible", a déclaré M. Altman.

L'objectif est de définir un certain taux de mesure (rare, moyen ou fréquent), de laisser ces mesures se battre avec l'intrication pendant un certain temps et de voir quelle quantité d'entropie d'intrication vous obtenez dans l'état final. Ensuite, rincez et répétez avec d'autres taux de mesure et voyez comment la quantité d'intrication change. C'est un peu comme si l'on augmentait la température pour voir comment la structure d'un glaçon change.

Mais les mathématiques punitives de la prolifération exponentielle des possibilités rendent cette expérience presque impensablement difficile à réaliser.

L'entropie d'intrication n'est pas, à proprement parler, quelque chose que l'on peut observer. C'est un nombre que l'on déduit par la répétition, de la même manière que l'on peut éventuellement déterminer la pondération d'un dé chargé. Lancer un seul 3 ne vous apprend rien. Mais après avoir lancé le dé des centaines de fois, vous pouvez connaître la probabilité d'obtenir chaque chiffre. De même, le fait qu'une particule pointe vers le haut et une autre vers le bas ne signifie pas qu'elles sont intriquées. Il faudrait obtenir le résultat inverse plusieurs fois pour en être sûr.

Il est beaucoup plus difficile de déduire l'entropie d'intrication d'une chaîne de particules mesurées. L'état final de la chaîne dépend de son histoire expérimentale, c'est-à-dire du fait que chaque mesure intermédiaire a abouti à une rotation vers le haut ou vers le bas. Pour accumuler plusieurs copies du même état, l'expérimentateur doit donc répéter l'expérience encore et encore jusqu'à ce qu'il obtienne la même séquence de mesures intermédiaires, un peu comme s'il jouait à pile ou face jusqu'à ce qu'il obtienne une série de "têtes" d'affilée. Chaque mesure supplémentaire rend l'effort deux fois plus difficile. Si vous effectuez 10 mesures lors de la préparation d'une chaîne de particules, par exemple, vous devrez effectuer 210 ou 1 024 expériences supplémentaires pour obtenir le même état final une deuxième fois (et vous pourriez avoir besoin de 1 000 copies supplémentaires de cet état pour déterminer son entropie d'enchevêtrement). Il faudra ensuite modifier le taux de mesure et recommencer.

L'extrême difficulté à détecter la transition de phase a amené certains physiciens à se demander si elle était réellement réelle.

"Vous vous fiez à quelque chose d'exponentiellement improbable pour le voir", a déclaré Crystal Noel, physicienne à l'université Duke. "Cela soulève donc la question de savoir ce que cela signifie physiquement."

Noel a passé près de deux ans à réfléchir aux phases induites par les mesures. Elle faisait partie d'une équipe travaillant sur un nouvel ordinateur quantique à ions piégés à l'université du Maryland. Le processeur contenait des qubits, des objets quantiques qui agissent comme des particules. Ils peuvent être programmés pour créer un enchevêtrement par le biais d'interactions aléatoires. Et l'appareil pouvait mesurer ses qubits.

Le groupe a également eu recours à une deuxième astuce pour réduire le nombre de répétitions - une procédure technique qui revient à simuler numériquement l'expérience parallèlement à sa réalisation. Ils savaient ainsi à quoi s'attendre. C'était comme si on leur disait à l'avance comment le dé chargé était pondéré, et cela a permis de réduire le nombre de répétitions nécessaires pour mettre au point la structure invisible de l'enchevêtrement.

Grâce à ces deux astuces, ils ont pu détecter la transition d'intrication dans des chaînes de 13 qubits et ont publié leurs résultats à l'été 2021.

"Nous avons été stupéfaits", a déclaré M. Nahum. "Je ne pensais pas que cela se produirait aussi rapidement."

À l'insu de Nahum et de Noel, une exécution complète de la version originale de l'expérience, exponentiellement plus difficile, était déjà en cours.

À la même époque, IBM venait de mettre à niveau ses ordinateurs quantiques, ce qui leur permettait d'effectuer des mesures relativement rapides et fiables des qubits à la volée. Jin Ming Koh, étudiant de premier cycle à l'Institut de technologie de Californie, avait fait une présentation interne aux chercheurs d'IBM et les avait convaincus de participer à un projet visant à repousser les limites de cette nouvelle fonctionnalité. Sous la supervision d'Austin Minnich, physicien appliqué au Caltech, l'équipe a entrepris de détecter directement la transition de phase dans un effort que Skinner qualifie d'"héroïque".

 Après avoir demandé conseil à l'équipe de Noel, le groupe a simplement lancé les dés métaphoriques un nombre suffisant de fois pour déterminer la structure d'intrication de chaque historique de mesure possible pour des chaînes comptant jusqu'à 14 qubits. Ils ont constaté que lorsque les mesures étaient rares, l'entropie d'intrication doublait lorsqu'ils doublaient le nombre de qubits - une signature claire de l'intrication qui remplit la chaîne. Les chaînes les plus longues (qui impliquaient davantage de mesures) ont nécessité plus de 1,5 million d'exécutions sur les appareils d'IBM et, au total, les processeurs de l'entreprise ont fonctionné pendant sept mois. Il s'agit de l'une des tâches les plus intensives en termes de calcul jamais réalisées à l'aide d'ordinateurs quantiques.

Le groupe de M. Minnich a publié sa réalisation des deux phases en mars 2022, ce qui a permis de dissiper tous les doutes qui subsistaient quant à la possibilité de mesurer le phénomène.

"Ils ont vraiment procédé par force brute", a déclaré M. Noel, et ont prouvé que "pour les systèmes de petite taille, c'est faisable".

Récemment, une équipe de physiciens a collaboré avec Google pour aller encore plus loin, en étudiant l'équivalent d'une chaîne presque deux fois plus longue que les deux précédentes. Vedika Khemani, de l'université de Stanford, et Matteo Ippoliti, aujourd'hui à l'université du Texas à Austin, avaient déjà utilisé le processeur quantique de Google en 2021 pour créer un cristal de temps, qui, comme les phases de propagation de l'intrication, est une phase exotique existant dans un système changeant.

En collaboration avec une vaste équipe de chercheurs, le duo a repris les deux astuces mises au point par le groupe de Noel et y a ajouté un nouvel ingrédient : le temps. L'équation de Schrödinger relie le passé d'une particule à son avenir, mais la mesure rompt ce lien. Ou, comme le dit Khemani, "une fois que l'on introduit des mesures dans un système, cette flèche du temps est complètement détruite".

Sans flèche du temps claire, le groupe a pu réorienter la clôture à mailles losangiques de Nahum pour accéder à différents qubits à différents moments, ce qu'ils ont utilisé de manière avantageuse. Ils ont notamment découvert une transition de phase dans un système équivalent à une chaîne d'environ 24 qubits, qu'ils ont décrite dans un article publié en mars.

Puissance de la mesure

Le débat de Skinner et Nahum sur le pudding, ainsi que les travaux de Fisher et Smith, ont donné naissance à un nouveau sous-domaine parmi les physiciens qui s'intéressent à la mesure, à l'information et à l'enchevêtrement. Au cœur de ces différentes lignes de recherche se trouve une prise de conscience croissante du fait que les mesures ne se contentent pas de recueillir des informations. Ce sont des événements physiques qui peuvent générer des phénomènes véritablement nouveaux.

"Les mesures ne sont pas un sujet auquel les physiciens de la matière condensée ont pensé historiquement", a déclaré M. Fisher. Nous effectuons des mesures pour recueillir des informations à la fin d'une expérience, a-t-il poursuivi, mais pas pour manipuler un système.

En particulier, les mesures peuvent produire des résultats inhabituels parce qu'elles peuvent avoir le même type de saveur "partout-tout-enmême-temps" qui a autrefois troublé Einstein. Au moment de la mesure, les possibilités alternatives contenues dans l'état quantique s'évanouissent, pour ne jamais se réaliser, y compris celles qui concernent des endroits très éloignés dans l'univers. Si la non-localité de la mécanique quantique ne permet pas des transmissions plus rapides que la lumière comme le craignait Einstein, elle permet d'autres exploits surprenants.

"Les gens sont intrigués par le type de nouveaux phénomènes collectifs qui peuvent être induits par ces effets non locaux des mesures", a déclaré M. Altman.

L'enchevêtrement d'une collection de nombreuses particules, par exemple, a longtemps été considéré comme nécessitant au moins autant d'étapes que le nombre de particules que l'on souhaitait enchevêtrer. Mais l'hiver dernier, des théoriciens ont décrit un moyen d'y parvenir en beaucoup moins d'étapes grâce à des mesures judicieuses. Au début de l'année, le même groupe a mis l'idée en pratique et façonné une tapisserie d'enchevêtrement abritant des particules légendaires qui se souviennent de leur passé. D'autres équipes étudient d'autres façons d'utiliser les mesures pour renforcer les états intriqués de la matière quantique.

Cette explosion d'intérêt a complètement surpris Skinner, qui s'est récemment rendu à Pékin pour recevoir un prix pour ses travaux dans le Grand Hall du Peuple sur la place Tiananmen. (Skinner avait d'abord cru que la question de Nahum n'était qu'un exercice mental, mais aujourd'hui, il n'est plus très sûr de la direction que tout cela prend.)

"Je pensais qu'il s'agissait d'un jeu amusant auquel nous jouions, mais je ne suis plus prêt à parier sur l'idée qu'il n'est pas utile."

Auteur: Internet

Info: Quanta Magazine, Paul Chaikin, sept 2023

[ passage inversant ] [ esprit-matière ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

chronos

Il est difficile d'imaginer un univers atemporel, non pas parce que le temps est un concept techniquement complexe ou philosophiquement insaisissable mais pour une raison plus structurelle.

Imaginer la non temporalité implique que le temps s'écoule. Même lorsqu'on essayez d'imaginer son absence, on le sent passer à mesure que nos pensées changent, que notre cœur pompe le sang vers votre cerveau et que les images, sons et odeurs bougent autour de nous. Le temps semble ne jamais s'arrêter. On peut même avoir l'impression d'être tissé dans son tissu en un perpétuel mouvement, alors que l'Univers se contracte et se rétracte. Mais est-ce vraiment ainsi que le temps fonctionne ?

Selon Albert Einstein, notre expérience du passé, du présent et du futur n'est rien d'autre qu'une "illusion obstinément persistante". Selon Isaac Newton, le temps n'est rien d'autre qu'une toile de fond, en dehors de la vie. Et selon les lois de la thermodynamique, le temps n'est rien d'autre que de l'entropie et de la chaleur. Dans l'histoire de la physique moderne, il n'y a jamais eu de théorie largement acceptée dans laquelle un sens du temps mobile et directionnel soit fondamental. Nombre de nos descriptions les plus fondamentales de la nature - des lois du mouvement aux propriétés des molécules et de la matière - semblent exister dans un univers où le temps ne s'écoule pas vraiment. Cependant, des recherches récentes menées dans divers domaines suggèrent que le mouvement du temps pourrait être plus important que la plupart des physiciens ne l'avaient supposé.

Une nouvelle forme de physique appelée théorie de l'assemblage suggère que le sens d'un temps en mouvement et directionnel est réel et fondamental. Elle suggère que les objets complexes de notre univers qui ont été fabriqués par la vie, y compris les microbes, les ordinateurs et les villes, n'existent pas hors du temps : impossibles sans un mouvement temporel. De ce point de vue, le passage du temps n'est pas seulement intrinsèque à l'évolution de la vie ou à notre expérience de l'univers. Il est aussi le tissu matériel en perpétuel mouvement de l'Univers lui-même. Le temps est un objet. Il a une taille physique, comme l'espace. Il peut être mesuré au niveau moléculaire dans les laboratoires.

L'unification du temps et de l'espace a radicalement changé la trajectoire de la physique au 20e siècle. Elle a ouvert de nouvelles perspectives sur la façon dont nous concevons la réalité. Que pourrait faire l'unification du temps et de la matière à notre époque ? Que se passe-t-il lorsque le temps est un objet ?

Pour Newton, le temps était fixe. Dans ses lois du mouvement et de la gravité, qui décrivent comment les objets changent de position dans l'espace, le temps est une toile de fond absolue. Le temps newtonien passe, mais ne change jamais. Cette vision temporelle perdure dans la physique moderne - même dans les fonctions d'onde de la mécanique quantique, le temps reste une toile de fond et non une caractéristique fondamentale. Pour Einstein, cependant, le temps n'est pas absolu. Il était relatif à chaque observateur. Il a décrit notre expérience du temps qui passe comme "une illusion obstinément persistante". Le temps einsteinien est mesuré par le tic-tac des horloges ; l'espace est mesuré par le tic-tac des règles qui enregistrent les distances. En étudiant les mouvements relatifs des horloges et des règles, Einstein a pu combiner les concepts de mesure de l'espace et du temps en une structure unifiée que nous appelons aujourd'hui "espace-temps". Dans cette structure, l'espace est infini et tous les points existent en même temps. Mais le temps, tel que décrit par Einstein, possède également cette propriété, ce qui signifie que tous les temps - passé, présent et futur - sont pareillement vrais. Le résultat est parfois appelé "univers bloc", qui contient tout ce qui s'est passé et se passera dans l'espace et le temps. Aujourd'hui, la plupart des physiciens soutiennent  cette notion d'univers-bloc.

Mais l'univers-bloc avait été fissuré avant même d'exister. Au début du XIXe siècle, près d'un siècle avant qu'Einstein ne développe le concept d'espace-temps, Nicolas Léonard Sadi Carnot et d'autres physiciens s'interrogeaient déjà sur l'idée que le temps était soit une toile de fond, soit une illusion. Ces questions se poursuivront au XIXe siècle, lorsque des physiciens tels que Ludwig Boltzmann commenceront à s'intéresser aux problèmes posés par une technologie d'un genre nouveau : la machine (engine - ou moteur : nous par exemple)

Bien que les machines puissent être reproduites mécaniquement, les physiciens ne savent pas exactement comment elles fonctionnent. La mécanique newtonienne est réversible, ce qui n'est pas le cas des machines. Le système solaire de Newton fonctionnait aussi bien en avançant qu'en reculant dans le temps. En revanche, si vous conduisez une voiture et qu'elle tombe en panne d'essence, vous ne pouvez pas faire tourner le moteur en marche arrière, récupérer la chaleur générée et désenflammer le carburant. Les physiciens de l'époque pensaient que les moteurs devaient obéir à certaines lois, même si ces lois étaient inconnues. Ils ont découvert que les moteurs ne fonctionnaient pas si le temps ne s'écoulait pas et n'avait pas de direction. En exploitant les différences de température, les moteurs entraînent un mouvement de chaleur des parties chaudes vers les parties froides. Plus le temps passe, plus la différence de température diminue et moins le "travail" peut être effectué. Telle est l'essence de la deuxième loi de la thermodynamique (également connue sous le nom de loi de l'entropie) qui fut proposée par Carnot et expliquée plus tard de manière statistique par Boltzmann. Cette loi décrit la manière dont un moteur peut effectuer moins de "travail" utile au fil du temps. Vous devez de temps en temps faire le plein de votre voiture, et l'entropie doit toujours être en augmentation.

Vivons-nous vraiment dans un univers qui n'a pas besoin du temps comme caractéristique fondamentale ?

Tout ça a du sens dans le contexte des machines ou d'autres objets complexes, mais n'est pas utile lorsqu'il s'agit d'une simple particule. Parler de la température d'une seule particule n'a aucun sens, car la température est un moyen de quantifier l'énergie cinétique moyenne de nombreuses particules. Dans les lois de la thermodynamique, l'écoulement et la directionnalité du temps sont considérés comme une propriété émergente plutôt que comme une toile de fond ou une illusion - une propriété associée au comportement d'un grand nombre d'objets. Bien que la théorie thermodynamique ait introduit la notion de directionnalité du temps, cette propriété n'était pas fondamentale. En physique, les propriétés "fondamentales" sont réservées aux propriétés qui ne peuvent être décrites par d'autres termes. La flèche du temps en thermodynamique est donc considérée comme "émergente" parce qu'elle peut être expliquée en termes de concepts plus fondamentaux, tels que l'entropie et la chaleur.

Charles Darwin, qui vécut et travailla entre l'ère de la machine à vapeur de Carnot et l'émergence de l'univers en bloc d'Einstein, fut un des premiers à voir clairement comment la vie doit exister dans le temps. Dans la dernière phrase de L'origine des espèces (1859), il résume avec éloquence cette perspective : "Alors que cette planète a continué de tourner selon la loi fixe de la gravité, à partir d'un commencement aussi simple... des formes infinies, les plus belles et les plus merveilleuses, ont été et sont en train d'évoluer". L'arrivée des "formes infinies" de Darwin ne peut s'expliquer que dans un univers où le temps existe et possède une direction claire.

Au cours des derniers milliards d'années, la vie a évolué d'organismes unicellulaires vers des organismes multicellulaires complexes. Elle est passée de sociétés simples à des villes grouillantes et, aujourd'hui, à une planète potentiellement capable de reproduire sa vie sur d'autres mondes. Ces choses mettent du temps à apparaître parce qu'elles ne peuvent émerger qu'à travers les processus de sélection et d'évolution.

Nous pensons que l'intuition de Darwin n'est pas assez profonde. L'évolution décrit avec précision les changements observés dans les différentes formes de vie, mais elle fait bien plus que cela : c'est le seul processus physique de notre univers qui peut générer les objets que nous associons à la vie. Qu'il s'agisse de bactéries, de chats et d'arbres, mais aussi de choses telles que des fusées, des téléphones portables et des villes. Aucun de ces objets n'apparaît spontanément par fluctuation, contrairement à ce que prétendent les ouvrages de physique moderne. Ces objets ne sont pas le fruit du hasard. Au contraire, ils ont tous besoin d'une "mémoire" du passé pour être fabriqués dans le présent. Ils doivent être produits au fil du temps - un temps qui avance continuellement. Pourtant, selon Newton, Einstein, Carnot, Boltzmann et d'autres, le temps est soit inexistant, soit simplement émergent.

Les temps de la physique et de l'évolution sont incompatibles. Mais cela n'a pas toujours été évident parce que physique et évolution traitent de types d'objets différents.  La physique, en particulier la mécanique quantique, traite d'objets simples et élémentaires : quarks, leptons et  autres particules porteuses de force du modèle standard. Ces objets étant considérés comme simples, l'Univers n'a pas besoin de "mémoire" pour les fabriquer (à condition que l'énergie et les ressources disponibles soient suffisantes). La "mémoire" est un moyen de décrire l'enregistrement des actions ou des processus nécessaires à la fabrication d'un objet donné. Lorsque nous abordons les disciplines qui traitent de l'évolution, telles que la chimie et la biologie, nous trouvons des objets trop complexes pour être produits en abondance instantanément (même lorsque l'énergie et les matériaux sont disponibles). Ils nécessitent une mémoire, accumulée au fil du temps, pour être produits. Comme l'a compris Darwin, certains objets ne peuvent voir le jour que grâce à l'évolution et à la sélection de certains "enregistrements" de la mémoire pour les fabriquer.

Cette incompatibilité crée un ensemble de problèmes qui ne peuvent être résolus qu'en s'écartant radicalement de la manière dont la physique aborde actuellement le temps, en particulier si nous voulons expliquer la vie. Si les théories actuelles de la mécanique quantique peuvent expliquer certaines caractéristiques des molécules, comme leur stabilité, elles ne peuvent pas expliquer l'existence de l'ADN, des protéines, de l'ARN ou autres molécules grands et complexes. De même, la deuxième loi de la thermodynamique est censée donner lieu à la flèche du temps et à des explications sur la manière dont les organismes convertissent l'énergie, mais elle n'explique pas la directionnalité du temps, dans laquelle des formes infinies se construisent sur des échelles de temps évolutives sans que soit en vue l'équilibre final ou la mort thermique de la biosphère. La mécanique quantique et la thermodynamique sont nécessaires pour expliquer certaines caractéristiques de la vie, mais elles ne sont pas suffisantes.

Ces problèmes et d'autres encore nous ont amenés à développer une nouvelle façon de penser la physique du temps, que nous avons appelée la théorie de l'assemblage. Cette théorie décrit la quantité de mémoire nécessaire pour qu'une molécule ou une combinaison de molécules - les objets dont est faite la vie - vienne à l'existence. Dans la théorie de l'assemblage, cette mémoire est mesurée au cours du temps en tant que caractéristique d'une molécule, en mettant l'accent sur la mémoire minimale requise pour que cette (ou ces) molécule(s) puisse(nt) voir le jour. La théorie de l'assemblage quantifie la sélection en faisant du temps une propriété des objets qui n'ont pu émerger que par l'évolution.

Nous avons commencé à développer cette nouvelle physique en examinant comment la vie émerge par le biais de changements chimiques. La chimie de la vie fonctionne de manière combinatoire : les atomes se lient pour former des molécules, et les combinaisons possibles augmentent avec chaque liaison supplémentaire. Ces combinaisons sont réalisées à partir d'environ 92 éléments naturels, dont les chimistes estiment qu'ils peuvent être combinés pour construire jusqu'à 10 puissance 60 de molécules différentes  (1 suivi de 60 zéros). Pour devenir utile, chaque combinaison individuelle devrait être répliquée des milliards de fois - pensez au nombre de molécules nécessaires pour fabriquer ne serait-ce qu'une seule cellule, sans parler d'un insecte ou d'une personne. Faire des copies de tout objet complexe prend donc du temps car chaque étape nécessaire à son assemblage implique une recherche dans l'immensité de l'espace combinatoire pour sélectionner les molécules qui prendront une forme physique.

Les espaces à structure combinatoire semblent apparaître lorsque la vie existe.

Prenons les protéines macromoléculaires que les êtres vivants utilisent comme catalyseurs dans les cellules. Ces protéines sont fabriquées à partir d'éléments moléculaires plus petits appelés acides aminés, qui se combinent pour former de longues chaînes dont la longueur varie généralement entre 50 et 2 000 acides aminés. Si toutes les protéines possibles d'une longueur de 100 acides aminés étaient assemblées à partir des 20 acides aminés les plus courants qui forment les protéines, le résultat ne remplirait pas seulement notre univers, mais 10 (puissance 23 ) univers.

Il est difficile d'imaginer le champ de toutes les molécules possibles.  À titre d'analogie, considérons les combinaisons qu'on peut réaliser avec un jeu de briques donné genre Lego. Si le jeu ne contient que deux briques, le nombre de combinaisons sera faible. En revanche, si le jeu contient des milliers de pièces, comme  un modèle Lego de 5 923 pièces du Taj Mahal, le nombre de combinaisons possibles est astronomique. Si vous deviez spécifiquement construire le Taj Mahal en suivant les instructions, l'espace des possibilités devient limité, mais si vous pouviez construire n'importe quel objet Lego avec ces 5 923 pièces, il y aurait une explosion combinatoire des structures possibles qui pourraient être construites - les possibilités augmentant de manière exponentielle avec chaque bloc supplémentaire que vous ajouteriez. Si vous connectez chaque seconde deux structures Lego préalablement construites, vous ne pourriez pas explorer toutes les possibilités d'objets de la taille du jeu Lego Taj Mahal avant la fin de l'univers. En fait, tout espace construit de manière combinatoire, même à partir de quelques blocs de construction simples, aura cette propriété. Idée qui inclut tous les objets cellulaires possibles construits à partir de la chimie, tous les organismes possibles construits à partir de différents types de cellules, tous les langages possibles construits à partir de mots ou d'énoncés, et tous les programmes informatiques possibles construits à partir de tous les jeux d'instructions possibles.

Le schéma est le suivant : les espaces combinatoires semblent se manifester lorsque la vie existe. En d'autres termes, la vie ne devient évidente que lorsque le champ des possibles est si vaste que l'univers est obligé de ne sélectionner qu'une partie de cet espace pour exister. La théorie de l'assemblage vise à formaliser cette idée. Dans la théorie de l'assemblage, les objets sont construits de manière combinatoire à partir d'autres objets et, tout comme vous pouvez utiliser une règle pour mesurer la taille d'un objet donné dans l'espace, la théorie de l'assemblage fournit une mesure - appelée "indice d'assemblage" - pour mesurer la taille d'un objet dans le temps.

Partant de cette analogie, l'ensemble Lego Taj Mahal équivaut à une molécule complexe. La reproduction d'un objet spécifique, comme un jeu de Lego, d'une manière qui n'est pas aléatoire, nécessite une sélection dans l'espace de tous les objets possibles. En d'autres termes, à chaque étape de la construction, des objets ou des ensembles d'objets spécifiques doivent être sélectionnés parmi le grand nombre de combinaisons possibles qui pourraient être construites. Outre la sélection, la "mémoire" est également nécessaire : les objets existants doivent contenir des informations pour assembler le nouvel objet spécifique, qui est mis en œuvre sous la forme d'une séquence d'étapes pouvant être accomplies en un temps fini, comme les instructions requises pour construire le Taj Mahal en Lego. Les objets plus complexes nécessitent davantage de mémoire pour voir le jour.

Dans la théorie de l'assemblage, les objets gagnent en complexité au fil du temps grâce au processus de sélection. Au fur et à mesure que les objets deviennent plus complexes, leurs parties uniques augmentent, ce qui signifie que la mémoire locale doit également augmenter. "Mémoire locale" qui est la chaîne causale d'événements qui font que l'objet est d'abord "découvert" ou "émergé" via la sélection, puis créé en plusieurs exemplaires. Par exemple, dans le cadre de la recherche sur l'origine de la vie, les chimistes étudient comment les molécules s'assemblent pour devenir des organismes vivants. Pour qu'un système chimique émerge spontanément en tant que "vie", il doit s'auto-reproduire en formant, ou en catalysant, des réseaux de réactions chimiques auto-entretenus. Mais comment le système chimique "sait-il" quelles combinaisons faire ? Nous pouvons voir une "mémoire locale" à l'œuvre dans ces réseaux de molécules qui ont "appris" à se lier chimiquement de certaines manières. À mesure que les exigences en matière de mémoire augmentent, la probabilité qu'un objet ait été produit par hasard tombe à zéro, car le nombre de combinaisons alternatives qui n'ont pas été sélectionnées est tout simplement trop élevé. Un objet, qu'il s'agisse d'un Lego Taj Mahal ou d'un réseau de molécules, ne peut être produit et reproduit qu'avec une mémoire et un processus de construction. Mais la mémoire n'est pas partout, elle est locale dans l'espace et le temps. Ce qui signifie qu'un objet ne peut être produit que s'il existe une mémoire locale qui peut guider le choix des pièces, de leur emplacement et de leur moment.

Dans la théorie de l'assemblage, la "sélection" fait référence à ce qui a émergé dans l'espace des combinaisons possibles. Elle est formellement décrite par le nombre de copies et la complexité d'un objet. Le nombre de copies, ou concentration, est un concept utilisé en chimie et en biologie moléculaire qui fait référence au nombre de copies d'une molécule présentes dans un volume d'espace donné. Dans la théorie de l'assemblage, la complexité est tout aussi importante que le nombre de copies. Une molécule très complexe qui n'existe qu'en un seul exemplaire importe peu. Ce qui intéresse la théorie de l'assemblage, ce sont les molécules complexes dont le nombre de copies est élevé, ce qui indique que la molécule a été produite par l'évolution. Cette mesure de la complexité est également connue sous le nom d'"indice d'assemblage" d'un objet. Valeur qui est liée à la quantité de mémoire physique nécessaire pour stocker les informations permettant de diriger l'assemblage d'un objet et d'établir une direction dans le temps du simple au complexe. Bien que la mémoire doive exister dans l'environnement pour faire naître l'objet, dans la théorie de l'assemblage la mémoire est également une caractéristique physique intrinsèque de l'objet. En fait, elle est l'objet.

Ce sont des piles d'objets construisant d'autres objets qui construisent d'autres objets - objets qui construisent des objets, jusqu'au bout. Certains objets ne sont apparus que relativement récemment, tels que les "produits chimiques éternels" synthétiques fabriqués à partir de composés chimiques organofluorés. D'autres sont apparus il y a des milliards d'années, comme les cellules végétales photosynthétiques. Les objets ont des profondeurs temporelles différentes. Cette profondeur est directement liée à l'indice d'assemblage et au nombre de copies d'un objet, que nous pouvons combiner en un nombre : une quantité appelée "assemblage", ou A. Plus le nombre d'assemblage est élevé, plus l'objet a une profondeur temporelle.

Pour mesurer un assemblage en laboratoire, nous analysons chimiquement un objet pour compter le nombre de copies d'une molécule donnée qu'il contient. Nous déduisons ensuite la complexité de l'objet, connue sous le nom d'indice d'assemblage moléculaire, en comptant le nombre de parties qu'il contient. Ces parties moléculaires, comme les acides aminés dans une chaîne de protéines, sont souvent déduites en déterminant l'indice d'assemblage moléculaire d'un objet - un numéro d'assemblage théorique. Mais il ne s'agit pas d'une déduction théorique. Nous "comptons" les composants moléculaires d'un objet à l'aide de trois techniques de visualisation : la spectrométrie de masse, la spectroscopie infrarouge et la spectroscopie de résonance magnétique nucléaire (RMN). Il est remarquable que le nombre de composants que nous avons comptés dans les molécules corresponde à leur nombre d'assemblage théorique. Cela signifie que nous pouvons mesurer l'indice d'assemblage d'un objet directement avec un équipement de laboratoire standard.

Un numéro d'assemblage élevé - indice d'assemblage élevé et nombre de copies élevé - indique que l'objet peut être fabriqué de manière fiable par un élément de son environnement. Il peut s'agir d'une cellule qui construit des molécules à indice d'assemblage élevé, comme les protéines, ou d'un chimiste qui fabrique des molécules à indice d'assemblage encore plus élevé, comme le Taxol (paclitaxel), un médicament anticancéreux. Les objets complexes ayant un nombre élevé de copies ne sont pas apparus au hasard, mais sont le résultat d'un processus d'évolution ou de sélection. Ils ne sont pas le fruit d'une série de rencontres fortuites, mais d'une sélection dans le temps. Plus précisément, d'une certaine profondeur dans le temps.

C'est comme si l'on jetait en l'air les 5 923 pièces du Lego Taj Mahal et que l'on s'attendait à ce qu'elles s'assemblent spontanément

Il s'agit d'un concept difficile. Même les chimistes ont du mal à l'appréhender, car s'il est facile d'imaginer que des molécules "complexes" se forment par le biais d'interactions fortuites avec leur environnement, en laboratoire, les interactions fortuites conduisent souvent à la production de "goudron" plutôt qu'à celle d'objets à haut niveau d'assemblage. Le goudron est le pire cauchemar des chimistes, un mélange désordonné de molécules qui ne peuvent être identifiées individuellement. On le retrouve fréquemment dans les expériences sur l'origine de la vie. Dans l'expérience de la "soupe prébiotique" menée par le chimiste américain Stanley Miller en 1953, les acides aminés sélectionnés au départ se transformaient en une bouillie noire non identifiable si l'expérience se poursuivait trop longtemps (et aucune sélection n'était imposée par les chercheurs pour empêcher les changements chimiques de se produire). Le problème dans ces expériences est que l'espace combinatoire des molécules possibles est si vaste pour les objets à fort assemblage qu'aucune molécule spécifique n'est produite en grande abondance. Le résultat est le "goudron".

C'est comme si l'on jetait en l'air les 5 923 pièces du jeu Lego Taj Mahal et qu'on s'attendait à ce qu'elles s'assemblent spontanément de manière exacte comme le prévoient les instructions. Imaginez maintenant que vous preniez les pièces de 100 boîtes du même jeu de Lego, que vous les lanciez en l'air et que vous vous attendiez à ce que 100 exemplaires du même bâtiment soient fabriqués. Les probabilités sont incroyablement faibles et pourraient même être nulles, si la théorie de l'assemblage est sur la bonne voie. C'est aussi probable qu'un œuf écrasé se reforme spontanément.

Mais qu'en est-il des objets complexes qui apparaissent naturellement sans sélection ni évolution ? Qu'en est-il des flocons de neige, des minéraux et des systèmes de tempêtes météo  complexes ? Contrairement aux objets générés par l'évolution et la sélection, ces objets n'ont pas besoin d'être expliqués par leur "profondeur dans le temps". Bien qu'individuellement complexes, ils n'ont pas une valeur d'assemblage élevée parce qu'ils se forment au hasard et n'ont pas besoin de mémoire pour être produits. Ils ont un faible nombre de copies parce qu'ils n'existent jamais en copies identiques. Il n'y a pas deux flocons de neige identiques, et il en va de même pour les minéraux et les systèmes de tempête.

La théorie des assemblages modifie non seulement notre conception du temps, mais aussi notre définition de la vie elle-même. En appliquant cette approche aux systèmes moléculaires, il devrait être possible de mesurer si une molécule a été produite par un processus évolutif. Cela signifie que nous pouvons déterminer quelles molécules n'ont pu être produites que par un processus vivant, même si ce processus implique des chimies différentes de celles que l'on trouve sur Terre. De cette manière, la théorie de l'assemblage peut fonctionner comme un système universel de détection de la vie qui fonctionne en mesurant les indices d'assemblage et le nombre de copies de molécules dans des échantillons vivants ou non vivants.

Dans nos expériences de laboratoire, nous avons constaté que seuls les échantillons vivants produisent des molécules à fort taux d'assemblage. Nos équipes et nos collaborateurs ont reproduit cette découverte en utilisant une technique analytique appelée spectrométrie de masse, dans laquelle les molécules d'un échantillon sont "pesées" dans un champ électromagnétique, puis réduites en morceaux à l'aide d'énergie. Le fait de réduire une molécule en morceaux nous permet de mesurer son indice d'assemblage en comptant le nombre de parties uniques qu'elle contient. Nous pouvons ainsi déterminer le nombre d'étapes nécessaires à la production d'un objet moléculaire et quantifier sa profondeur dans le temps à l'aide d'un équipement de laboratoire standard.

Pour vérifier notre théorie selon laquelle les objets à fort indice d'assemblage ne peuvent être générés que par la vie, l'étape suivante a consisté à tester des échantillons vivants et non vivants. Nos équipes ont pu prélever des échantillons de molécules dans tout le système solaire, y compris dans divers systèmes vivants, fossiles et abiotiques sur Terre. Ces échantillons solides de pierre, d'os, de chair et d'autres formes de matière ont été dissous dans un solvant, puis analysés à l'aide d'un spectromètre de masse à haute résolution capable d'identifier la structure et les propriétés des molécules. Nous avons constaté que seuls les systèmes vivants produisent des molécules abondantes dont l'indice d'assemblage est supérieur à une valeur déterminée expérimentalement de 15 étapes. La coupure entre 13 et 15 est nette, ce qui signifie que les molécules fabriquées par des processus aléatoires ne peuvent pas dépasser 13 étapes. Nous pensons que cela indique une transition de phase où la physique de l'évolution et de la sélection doit prendre le relais d'autres formes de physique pour expliquer la formation d'une molécule.

Ces expériences vérifient que seuls les objets avec un indice d'assemblage suffisamment élevé - molécules très complexes et copiées - semblent se trouver dans la vie. Ce qui est encore plus passionnant, c'est que nous pouvons trouver cette information sans rien savoir d'autre sur la molécule présente. La théorie de l'assemblage peut déterminer si des molécules provenant de n'importe quel endroit de l'univers sont issues de l'évolution ou non, même si nous ne connaissons pas la chimie utilisée.

La possibilité de détecter des systèmes vivants ailleurs dans la galaxie est passionnante, mais ce qui l'est encore plus pour nous, c'est la possibilité d'un nouveau type de physique et d'une nouvelle explication du vivant. En tant que mesure empirique d'objets uniquement produisibles par l'évolution, l'Assemblage déverouille une théorie plus générale de la vie. Si cette théorie se vérifie, son implication philosophique la plus radicale est que le temps existe en tant que propriété matérielle des objets complexes créés par l'évolution. En d'autres termes, tout comme Einstein a radicalisé notre notion du temps en l'unifiant avec l'espace, la théorie de l'assemblage indique une conception radicalement nouvelle du temps en l'unifiant avec la matière.

La théorie de l'assemblage explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs.

Elle est radicale parce que, comme nous l'avons noté, le temps n'a jamais été fondamental dans l'histoire de la physique. Newton et certains physiciens quantiques le considèrent comme une toile de fond. Einstein pensait qu'il s'agissait d'une illusion. Et, dans les travaux de ceux qui étudient la thermodynamique, il est considéré comme une simple propriété émergente. La théorie de l'assemblage considère le temps comme un élément fondamental et matériel : le temps est la matière dont sont faites les choses dans l'univers. Les objets créés par la sélection et l'évolution ne peuvent être formés que par le passage du temps. Mais il ne faut pas considérer ce temps comme le tic-tac mesuré d'une horloge ou comme une séquence d'années calendaires. Le temps est un attribut physique. Pensez-y en termes d'assemblage, propriété intrinsèque mesurable de la profondeur ou de la taille d'une molécule dans le temps.

Cette idée est radicale car elle permet également à la physique d'expliquer les changements évolutifs. La physique a traditionnellement étudié des objets que l'Univers peut assembler spontanément, tels que des particules élémentaires ou des planètes. La théorie de l'assemblage, en revanche, explique les objets évolués, tels que les molécules complexes, les biosphères et les ordinateurs. Ces objets complexes n'existent que le long de lignées où des informations spécifiques à leur construction furent acquises.

Si nous remontons ces lignées, depuis l'origine de la vie sur Terre jusqu'à l'origine de l'Univers, il serait logique de suggérer que la "mémoire" de l'Univers était plus faible dans le passé. Ce qui signifie que la capacité de l'Univers à générer des objets à fort assemblage est fondamentalement limitée par sa taille dans le temps. De même qu'un camion semi-remorque ne rentre pas dans le garage d'une maison standard, certains objets sont trop grands dans le temps pour naître dans des intervalles inférieurs à leur indice d'assemblage. Pour que des objets complexes comme les ordinateurs puissent exister dans notre univers, de nombreux autres objets ont d'abord dû se former : les étoiles, les éléments lourds, la vie, les outils, la technologie et l'abstraction de l'informatique. Cela prend du temps et dépend fortement du chemin parcouru en raison de la contingence causale de chaque innovation. Il est possible que l'Univers primitif n'était pas capable de calculer comme nous le savons, simplement parce qu'il n'y avait pas encore assez d'histoire. Le temps devait s'écouler et être matériellement instancié par la sélection des objets constitutifs de l'ordinateur. Il en va de même pour les structures Lego, les grands modèles de langage, les nouveaux médicaments, la "technosphère" ou tout autre objet complexe.

Les conséquences de la profondeur matérielle intrinsèque des objets dans le temps sont considérables. Dans l'univers-bloc, tout est considéré comme statique et existant en même temps. Ce qui signifie que les objets ne peuvent pas être ordonnés en fonction de leur profondeur temporelle, et que sélection et évolution ne peuvent pas être utilisées pour expliquer pourquoi certains objets existent et pas d'autres. La reconceptualisation du temps en tant que dimension physique de la matière complexe et la définition d'une directionnalité temporelle pourraient nous aider à résoudre ces questions. La matérialisation du temps via notre théorie de l'assemblage permet d'unifier plusieurs concepts philosophiques déconcertants liés à la vie dans un cadre mesurable. Au cœur de cette théorie se trouve l'indice d'assemblage, qui mesure la complexité d'un objet. Il s'agit d'une manière quantifiable de décrire le concept évolutif de sélection en montrant combien d'alternatives ont été exclues pour obtenir un objet donné. Chaque étape du processus d'assemblage d'un objet nécessite des informations, une mémoire, pour spécifier ce qui doit ou ne doit pas être ajouté ou modifié. Pour construire le Taj Mahal en Lego, par exemple, nous devons suivre une séquence spécifique d'étapes, chacune d'entre elles nous menant à la construction finale. Chaque pas manqué est une erreur, et si nous faisons trop d'erreurs, il ne sera pas possible de construire une structure reconnaissable. La copie d'un objet nécessite des informations sur les étapes qui furent précédemment nécessaires pour produire des objets similaires.

Tout ceci fait de la théorie de l'assemblage une théorie causale de la physique, car la structure sous-jacente d'un espace d'assemblage - l'ensemble des combinaisons requises - ordonne les choses dans une chaîne de causalité. Chaque étape dépend d'une étape sélectionnée précédemment, et chaque objet dépend d'un objet sélectionné précédemment. Si l'on supprime l'une des étapes d'une chaîne d'assemblage, l'objet final ne sera pas produit. Les mots à la mode souvent associés à la physique de la vie, tels que "théorie", "information", "mémoire", "causalité" et "sélection", sont matériels parce que les objets eux-mêmes encodent les règles qui aident à construire d'autres objets "complexes". Ce pourrait être le cas dans la catalyse mutuelle* où les objets se fabriquent réciproquement. Ainsi, dans la théorie de l'assemblage, le temps est essentiellement identique à l'information, la mémoire, la causalité et la sélection.  Termes qui sont tous rendus physiques parce que nous supposons qu'il impliquent des caractéristiques des objets décrits dans la théorie, et non des lois qui régissent le comportement de ces objets. La théorie de l'assemblage réintroduit dans la physique une notion de temporalité en expansion et en mouvement, en montrant que son passage est la matière même dont sont faits les objets complexes : la complexité augmente simultanément avec la taille de l'avenir..

Cette nouvelle conception du temps pourrait résoudre de nombreux problèmes ouverts en physique fondamentale. Le premier et le plus important est le débat entre déterminisme et contingence. Einstein a dit de façon célèbre que Dieu "ne joue pas aux dés", et de nombreux physiciens sont encore obligés de conclure que le déterminisme s'applique et que notre avenir est fermé. Mais l'idée que les conditions initiales de l'univers, ou de tout autre processus, déterminent l'avenir a toujours posé problème. Dans la théorie de l'assemblage, l'avenir est déterminé, mais pas avant qu'il ne se produise. Si ce qui existe aujourd'hui détermine l'avenir, et que ce qui existe aujourd'hui est plus grand et plus riche en informations qu'il ne l'était dans le passé, alors les futurs possibles deviennent également plus grands au fur et à mesure que les objets deviennent plus complexes. Cela s'explique par le fait qu'il y a plus d'histoire dans le présent à partir de laquelle il est possible d'assembler de nouveaux états futurs. Traiter le temps comme une propriété matérielle des objets qu'il crée permet de générer de la nouveauté dans le futur.

La nouveauté est essentielle à notre compréhension de la vie en tant que phénomène physique. Notre biosphère est un objet vieux d'au moins 3,5 milliards d'années selon la mesure du temps de l'horloge (l'Assemblage mesure le temps différement). Mais comment la vie est-elle apparue ? Qu'est-ce qui a permis aux systèmes vivants de développer l'intelligence et la conscience ? La physique traditionnelle suggère que la vie a "émergé". Le concept d'émergence rend compte de la façon dont de nouvelles structures semblent apparaître à des niveaux supérieurs d'organisation spatiale, sans que l'on puisse les prédire à partir des niveaux inférieurs. Parmi les exemples, on peut citer le caractère humide de l'eau, qui ne peut être prédit à partir des molécules d'eau individuelles, ou la façon dont les cellules vivantes sont constituées d'atomes non vivants individuels. Cependant, les objets que la physique traditionnelle considère comme émergents deviennent fondamentaux dans la théorie de l'assemblage. De ce point de vue, le caractère émergent d'un objet, c'est-à-dire la mesure dans laquelle il s'écarte des attentes d'un physicien concernant ses éléments constitutifs élémentaires, dépend de la profondeur à laquelle il se situe dans le temps. Ce qui nous oriente vers les origines de la vie, mais nous pouvons aussi voyager dans l'autre sens.

Si nous sommes sur la bonne voie, la théorie de l'assemblage suggère que le temps est fondamental. Elle suggère que le changement n'est pas mesuré par des horloges, mais qu'il est encodé dans des chaînes d'événements qui produisent des molécules complexes avec différentes profondeurs dans le temps. Assemblages issus d'une mémoire locale dans l'immensité de l'espace combinatoire, ces objets enregistrent le passé, agissent dans le présent et déterminent l'avenir. Ceci signifie que l'Univers s'étend dans le temps et non dans l'espace - ou peut-être même que l'espace émerge du temps, comme le suggèrent de nombreuses propositions actuelles issues de la gravité quantique. Bien que l'Univers puisse être entièrement déterministe, son expansion dans le temps implique que le futur ne peut être entièrement prédit, même en principe. L'avenir de l'Univers est plus ouvert que nous n'aurions pu le prévoir.

Le temps est peut-être un tissu en perpétuel mouvement à travers lequel nous voyons les choses s'assembler et se séparer. Mais ce tissu fait mieux que se déplacer : il s'étend. Lorsque le temps est un objet, l'avenir a la taille du cosmos.

Auteur: Walker Sara Imari

Info: 19 May 2023. Publié en association avec l'Institut Santa Fe, un partenaire stratégique d'Aeon. *Autostimulation de la croissance d'une culture bactérienne par l'ajout de cellules similaires.

[ non-ergodicité ] [ frontière organique-inorganique ] [ savoir conservé ] [ gnose ] [ monades orthogonales ] [ exobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel