Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 247
Temps de recherche: 0.0707s

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

épistémologie

Le premier chapitre de l’ouvrage montre que la période grecque est déterminante pour les développements ultérieurs de la connaissance, elle a posé certains principes fondamentaux qui seront discutés jusqu’à nos jours. En synthétisant les apports de penseurs grecs d’Héraclite et Parménide, de Socrate à Platon, Aristote et Épicure, Martine Bocquet pointe qu’à cette époque le signe (séméïon) est secondaire, il est considéré comme un signe de la nature que l’on peut interpréter (symptôme de maladies, foudre, etc.). Il s’oppose au mot qui, lui, repose sur une relation conventionnelle. Martine Bocquet montre qu’Aristote est important pour la sémiotique, de Deely en particulier. Réaffirmant l’importance du rapport sensible au monde, face à Platon, il a placé le séméïon au fondement de la connaissance et orienté ses recherches vers la relation comme catégorie discursive (pp. 33-45), notion qui sera au cœur des discussions des scoliastes.

Le chapitre deux montre l’évolution importante des notions de signe et de relation à la période latine médiévale et scolastique. Suivant l’étude de Deely, Martine Bocquet souligne le rôle d’Augustin d’Hippone. En traduisant le séméïon grec en signum, il a proposé la première formulation générale du signe qui subsume l’opposition entre nature et culture entre lesquelles il fonctionne comme une interface (p. 65, 68). Bien qu’elle demeure imparfaite, l’approche d’Augustin pose d’une part les fondements d’une théorie relationnelle de la connaissance ; d’autre part, en maintenant une distinction entre signe naturel (signum naturale, séméïon) et signe conventionnel (signum datum), elle ouvre sur une conception de la communication, tout à fait intéressante, engageant tous les êtres vivants (animaux, plantes) (p. 67, 69). D’une autre façon, la problématisation de la relation apparaît tout aussi importante à cette période. En distinguant, chez Aristote, la relatio secundum dici (relation transcendantale) — relation exprimée par le discours — et la relatio secundum esse (relation ontologique) — relation en tant qu’entité particulière (p. 70) — Boèce permet de concevoir l’existence de relations ontologiques, indépendantes de la pensée (p. 73) — fondamentales chez Poinsot, Peirce et Deely. Cette distinction aura son incidence puisqu’elle posera les termes de la querelle des universaux, tournant épistémologique majeur de l’histoire des connaissances.

Initiée par Pierre Abélard, la "querelle des universaux" est abordée par Martine Bocquet au chapitre trois et apparaît comme le point pivot de l’ouvrage (pp. 107-112) dans la mesure où elle aura une incidence sur le rapport au monde et à la connaissance. La dispute, qui porte sur la nature de l’objectivité et du statut de réalité des entités dépendantes ou non de la pensée, par le biais de la catégorie aristotélicienne de relation, et, par extension, de celle de signe, oppose les réalistes aux nominalistes.

Les penseurs dits "réalistes", parmi lesquels Thomas d’Aquin, Roger Bacon, Duns Scot, considèrent que le signe est constitué d’une relation indépendante de la pensée, dite ontologique, à la nature. Le traitement de Martine Bocquet montre clairement que Deely se retrouve dans la pensée de ces auteurs, dont il a avant tout souligné la contribution à la sémiotique de Peirce : (i) le signe subsume l’activité cognitive (pp. 80-81) (ii) la relation de signe est dans tous les cas triadique (p. 82), (iii) les signes se constituent de manière dynamique, ce qui leur permet d’agir (sémiosis) et de jouer un rôle dans l’expérience et la connaissance (pp. 83-86).

Martine Bocquet met particulièrement en évidence la pensée de Jean Poinsot (Jean de St-Thomas), en soulignant son influence sur Deely. L’originalité de ce dernier est d’avoir considéré Poinsot comme le précurseur d’une sémiotique voisine de celle de Peirce, plus ontologique encore. Pour le résumer en quelques points, Poinsot défend avant tout que la nature et la réalité du signe sont ontologiques (secundum esse), c’est-à-dire que le signe est une relation dont le véhicule est indifférent à ce qu’il communique (p. 102). Ce point est essentiel car il permet de doter le signe d’une nature proprement relationnelle : (i) il pointe vers autre chose (une autre réalité physique ou psychique), (ii) il permet d’articuler la subjectivité et l’intersubjectivité et (iii) opère la médiation entre les choses (indépendantes de la pensée) et les objets (dépendants de la pensée) (pp. 105-106) ; ce que la représentation, où l’objet pointe vers lui-même, n’autorise pas. Le point de vue de Poinsot est déterminant, car les nombreux retours vers sa pensée réalisés tout au long de l’ouvrage, montrent que c’est au prisme de ces principes que Deely réévaluait les pensées modernes.

De l’autre côté, les "nominalistes" comme Guillaume d’Ockham considèrent que la réalité est extra mentale, que seules les causes externes sont réelles, et qu’en conséquence, les relations intersubjectives n’existent que dans la pensée. Malgré l’intervention des successeurs d’Ockham qui, contrairement à celui-ci, admettront le signe, divisé en deux entités — signes instrumentaux (physiques, accessibles aux sens) et signes formels (concepts) — à partir de 1400 environ, les concepts (signes formels) seront considérés comme des représentations (p. 91). Martine Bocquet montre bien que le principe nominaliste, souvent simplifié, sera largement adopté par les sciences empiriques qu’il permettra de développer, mais cela, et c’est l’enjeu de la démarche de Deely, au détriment du rapport entre le monde et les sens.

Dans le quatrième chapitre consacré à la modernité, Martine Bocquet montre comment Deely a pointé les problèmes et les limites posés par l’héritage du nominalisme, en mettant notamment en perspective les travaux des empiristes (John Locke, David Hume), puis ceux de Kant, avec les propositions de Poinsot. Elle montre d’emblée que le rationalisme de Descartes, où la raison est indépendante et supérieure à la perception, conduira à renégocier la place de la perception dans la connaissance. En concevant les qualités des sens comme des images mentales, les modernes renversent l’ordre de la perception sensorielle reconnu par les scoliastes, les qualités sensorielles (couleurs, odeurs, sons) autrefois premières sont reléguées au second plan (p. 117). Les empiristes (John Locke, George Berkeley, David Hume) contribueront à considérer l’ensemble des sensations comme des images mentales, ils ne seront alors plus capables de s’extraire de la subjectivité (p. 121-124). À ce titre, Martine Bocquet porte à notre attention que Deely avait bien montré que l’empirisme et le rationalisme éludaient la description du phénomène de cognition.

L’approche de Kant apparaît dans l’ouvrage comme point culminant, ou synthèse, de la pensée moderne. En suivant les pas de Deely, Martine Bocquet prend le soin de mettre son travail en perspective avec la pensée de Poinsot, ce qui permet de réaffirmer sa pertinence dans le projet sémiotique de Deely. Kant a eu le mérite d’envisager des relations objectives. Toutefois, en limitant la cognition aux représentations, il la sépare de la signification, c’est-à-dire du supplément de sens contenu dans l’objectivité (au sens de Poinsot), et se coupe de l’expérience de l’environnement sensible qui permet à l’homme de connaître et de constituer le monde (pp. 130-131). Martine Bocquet insiste sur le fait que, selon Deely, la pensée kantienne est lourde de conséquences puisqu’en inversant les concepts d’objectivité et de subjectivité, elle enferme l’individu dans sa propre pensée (p. 134), reléguant la communication au rang d’illusion.

Le dernier chapitre de l’ouvrage est consacré aux chercheurs post-modernes, qui ont marqué la fin du modernisme et opéré un retour vers le signe. On y trouve notamment les apports d’Hegel et de Darwin, entre autres, qui ont permis d’affirmer le rôle concret de la relation ontologique dans la cognition, et la prise des facultés cognitives avec l’environnement physique. Martine Bocquet consacre une grande partie du chapitre à la sémiotique en tant que discipline, ce qui lui permet de réaffirmer l’ancrage de Deely dans l’héritage peircien qui est ici clairement distingué des modèles de Saussure et Eco.

Martine Bocquet rappelle d’abord que la pensée de Peirce s’inspire des réalistes (d’Aquin, Duns Scot) et considère donc que les produits de la pensée sont bien réels, et non de simples constructions des sens. La sémiotique qu’il développe appréhende la signification comme un parcours de pensée dynamique entre expérience et cognition. Dans son modèle ternaire, présenté en détail, la relation de tiercité caractérise le fonctionnement de la cognition humaine depuis la perception d’indices jusqu’à la constitution d’un système de signification ; elle est propre à l’homme qui peut se référer à la réalité mais aussi évoquer des choses imaginées (p. 146). L’intérêt de ce modèle est de permettre d’envisager que les non-humains utilisent aussi des signes, possibilité envisagée par Peirce dans sa « grande vision », doctrine qui selon Bocquet fascine Deely. Ce projet consistait à étendre la sémiotique au vivant, considérant que l’action des signes est enracinée dans toutes les choses du monde. Il ouvre sur un vaste champ de recherche abordé en conclusion, sur lequel nous reviendrons.

Contrairement à la sémiotique peircienne, Bocquet montre que John Deely considère que la sémiologie de Saussure, reposant sur le signe linguistique, est limitée car elle ne s’occupe que des signes conventionnels, culturels. De ce fait, elle se montre non seulement incapable d’approcher le signe naturel mais elle court aussi le risque de faire de la réalité une construction de l’esprit (idéalisme). En dépit d’un substrat peircien partagé, la même critique sera adressée à la théorie des codes d’Eco puis, plus loin dans la conclusion de Martine Bocquet (pp. 171-172), au structuralisme (Greimas, Lévi-Strauss). En somme, ces sémiotiques sont très efficaces pour étudier les systèmes de signes spécifiquement humains, mais, enfermées dans le langage et la culture, elles sont incapables de traiter les signes naturels, toute tentative révèle leur idéalisme. À cet endroit, l’auteure met bien en évidence l’opposition irréductible entre, d’un côté, ces théories qui ne rendent compte ni du signe naturel ni de la reconnaissance des phénomènes de la nature, et de l’autre, la posture de Deely qui défend l’idée que les données des sens ne sont jamais déconnectées et que la perception comprend une structure d’objectivité car les relations sont réelles (p. 165). Finalement, au travers de l’ouvrage, Bocquet montre que Deely prônait un retour à l’universalité du signe.

La conclusion du livre indique que Deely plaçait le signe et la sémiotique au cœur d’une pensée postmoderne capable de rétablir le dialogue entre les sciences dures et les sciences de la communication. Ce dialogue répondrait à la nécessité de comprendre l’action des signes autant dans la nature que dans la culture. Pour concrétiser cela, Deely propose un retour au réalisme oublié des scoliastes latins pour réviser les théories des modernes afin de renouer le lien avec la nature, en tenant compte des entités dépendantes et indépendantes de la pensée (p. 168).

Cette posture s’inscrirait, selon Martine Bocquet, dans un projet sémioéthique au sein duquel l’homme prendrait conscience de ses responsabilités vis-à-vis de la nature. Finalement, la solution à adopter correspond à la "grande vision" de Peirce, introduite en amont, c’est-à-dire une doctrine des signes qui, d’une part, intègre l’ensemble de la connaissance humaine du sensoriel aux interactions sociales et à la culture et, d’autre part, étend la sémiotique à l’ensemble du monde vivant, considéré comme un réseau de significations entre humains et non-humains, et noué sur une relation ontologique présente dans toute chose (pp. 169-170). Mis en application dans les années 1960, ce projet a donné lieu à un ensemble de sémiotiques spécifiques étudiant aussi bien le vivant, comme la physiosémiotique, la phytosémiotique, la zoosémiotique, la biosémiotique, que l’homme avec l’anthroposémiotique. Nous soulignons que certaines de ces disciplines sont aujourd’hui émergentes pour répondre aux questions environnementales actuelles en termes de climat, de cohabitation entre espèces et d’habitabilité du monde.

La restitution des travaux de Deely par Martine Bocquet semble tout à fait pertinente pour les sciences de la communication. Tout d’abord, parce que la démarche historique de Deely invitant à réévaluer nos acquis au prisme de modèles plus anciens, parfois moins connus, est tout à fait d’actualité et nécessaire dans notre réseau de recherche pluridisciplinaire. Ensuite, du fait de la structure détaillée du livre de Martine Bocquet qui permettra autant aux étudiants qu’aux chercheurs de trouver une formulation des concepts et des problèmes qui sous-tendent encore le domaine de la communication.

D’autre part, le grand intérêt de l’ouvrage réside dans le parti pris épistémologique de la sémiotique de Deely. En adoptant la relation ontologique de Poinsot, présente en creux chez Peirce, Deely ouvre des perspectives importantes pour le champ des sciences de la communication puisqu’il attire notre attention sur un concept universel de signe capable de réaffirmer la place du sensible dans la communication et de problématiser les interactions entre humains et non-humains. À ce titre, la pensée de Deely rapportée par Martine Bocquet est tout à fait en phase avec la recherche de ces quinze dernières années où différentes disciplines ont cherché à étudier la signification au-delà des particularités entre humains mais aussi entre êtres vivants, soit en adoptant un point de vue ontologique soit en intégrant les sciences physiques ou cognitives. Citons par exemple la biosémiotique, la zoosémiotique mais aussi l’anthropologie de la nature de Philippe Descola, "l’anthropologie au-delà de l’humain" d’Eduardo Kohn, la sémiophysique de René Thom et Jean Petitot ou encore la sémiotique cognitive.

Auteur: Chatenet Ludovic

Info: résumé critique de : Martine Bocquet, Sur les traces du signe avec John Deely : une histoire de la sémiotique Limoges, Éditions Lambert Lucas, 2019, 200 p.

[ panorama sémiologique ] [ anthropocentrisme ] [ xénolinguistique ] [ philologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

question

La conscience est-elle partie prenante de l'univers et de sa structure ?

Des physiciens et des philosophes se sont récemment rencontrés pour débattre d'une théorie de la conscience appelée panpsychisme.

Il y a plus de 400 ans, Galilée a montré que de nombreux phénomènes quotidiens, tels qu'une balle qui roule sur une pente ou un lustre qui se balance doucement au plafond d'une église, obéissent à des lois mathématiques précises. Pour cette intuition, il est souvent salué comme le fondateur de la science moderne. Mais Galilée a reconnu que tout ne se prêtait pas à une approche quantitative. Des choses telles que les couleurs, les goûts et les odeurs "ne sont rien de plus que de simples noms", a déclaré Galilée, car "elles ne résident que dans la conscience". Ces qualités ne sont pas réellement présentes dans le monde, affirmait-il, mais existent uniquement dans l'esprit des créatures qui les perçoivent. "Par conséquent, si l'on supprimait la créature vivante, écrivait-il, toutes ces qualités seraient effacées et anéanties.

Depuis l'époque de Galilée, les sciences physiques ont fait un bond en avant, expliquant le fonctionnement des plus petits quarks jusqu'aux plus grands amas de galaxies. Mais expliquer les choses qui résident "uniquement dans la conscience" - le rouge d'un coucher de soleil, par exemple, ou le goût amer d'un citron - s'est avéré beaucoup plus difficile. Les neuroscientifiques ont identifié un certain nombre de corrélats neuronaux de la conscience - des états cérébraux associés à des états mentaux spécifiques - mais n'ont pas expliqué comment la matière forme les esprits en premier lieu. Comme l'a dit le philosophe Colin McGinn dans un article publié en 1989, "d'une manière ou d'une autre, nous avons l'impression que l'eau du cerveau physique est transformée en vin de la conscience". Le philosophe David Chalmers a célèbrement surnommé ce dilemme le "problème difficile" de la conscience*.

Des chercheurs se sont récemment réunis pour débattre de ce problème au Marist College de Poughkeepsie, dans l'État de New York, à l'occasion d'un atelier de deux jours consacré à une idée connue sous le nom de panpsychisme. Ce concept propose que la conscience soit un aspect fondamental de la réalité, au même titre que la masse ou la charge électrique. L'idée remonte à l'Antiquité - Platon l'a prise au sérieux - et a eu d'éminents partisans au fil des ans, notamment le psychologue William James et le philosophe et mathématicien Bertrand Russell. Elle connaît depuis peu un regain d'intérêt, notamment à la suite de la publication en 2019 du livre du philosophe Philip Goff, Galileo's Error, qui plaide vigoureusement en sa faveur.

M. Goff, de l'université de Durham en Angleterre, a organisé l'événement récent avec le philosophe mariste Andrei Buckareff, et il a été financé par une subvention de la Fondation John Templeton. Dans une petite salle de conférence dotée de fenêtres allant du sol au plafond et donnant sur l'Hudson, environ deux douzaines d'universitaires ont examiné la possibilité que la conscience se trouve peut-être en bas de l'échelle.

L'attrait du panpsychisme réside en partie dans le fait qu'il semble apporter une solution à la question posée par M. Chalmers : nous n'avons plus à nous préoccuper de la manière dont la matière inanimée forme des esprits, car l'esprit était là depuis le début, résidant dans le tissu de l'univers. Chalmers lui-même a adopté une forme de panpsychisme et a même suggéré que les particules individuelles pourraient être conscientes d'une manière ou d'une autre. Il a déclaré lors d'une conférence TED qu'un photon "pourrait avoir un élément de sentiment brut et subjectif, un précurseur primitif de la conscience". Le neuroscientifique Christof Koch est également d'accord avec cette idée. Dans son livre Consciousness paru en 2012, il note que si l'on accepte la conscience comme un phénomène réel qui ne dépend d'aucune matière particulière - qu'elle est "indépendante du substrat", comme le disent les philosophes - alors "il est facile de conclure que le cosmos tout entier est imprégné de sensibilité".

Pourtant, le panpsychisme va à l'encontre du point de vue majoritaire dans les sciences physiques et en philosophie, qui considère la conscience comme un phénomène émergent, quelque chose qui apparaît dans certains systèmes complexes, tels que le cerveau humain. Selon ce point de vue, les neurones individuels ne sont pas conscients, mais grâce aux propriétés collectives de quelque 86 milliards de neurones et à leurs interactions - qui, il est vrai, ne sont encore que mal comprises - les cerveaux (ainsi que les corps, peut-être) sont conscients. Les enquêtes suggèrent qu'un peu plus de la moitié des philosophes universitaires soutiennent ce point de vue, connu sous le nom de "physicalisme" ou "émergentisme", tandis qu'environ un tiers rejette le physicalisme et penche pour une alternative, dont le panpsychisme est l'une des nombreuses possibilités.

Lors de l'atelier, M. Goff a expliqué que la physique avait manqué quelque chose d'essentiel en ce qui concerne notre vie mentale intérieure. En formulant leurs théories, "la plupart des physiciens pensent à des expériences", a-t-il déclaré. "Je pense qu'ils devraient se demander si ma théorie est compatible avec la conscience, car nous savons qu'elle est réelle.

De nombreux philosophes présents à la réunion ont semblé partager l'inquiétude de M. Goff quant à l'échec du physicalisme lorsqu'il s'agit de la conscience. "Si vous connaissez les moindres détails des processus de mon cerveau, vous ne saurez toujours pas ce que c'est que d'être moi", déclare Hedda Hassel Mørch, philosophe à l'université des sciences appliquées de Norvège intérieure. "Il existe un fossé explicatif évident entre le physique et le mental. Prenons l'exemple de la difficulté d'essayer de décrire la couleur à quelqu'un qui n'a vu le monde qu'en noir et blanc. Yanssel Garcia, philosophe à l'université du Nebraska Omaha, estime que les faits physiques seuls sont inadéquats pour une telle tâche. "Il n'y a rien de physique que l'on puisse fournir [à une personne qui ne voit qu'en nuances de gris] pour qu'elle comprenne ce qu'est l'expérience de la couleur ; il faudrait qu'elle en fasse elle-même l'expérience", explique-t-il. "La science physique est, en principe, incapable de nous raconter toute l'histoire. Parmi les différentes alternatives proposées, il estime que "le panpsychisme est notre meilleure chance".

Mais le panpsychisme attire également de nombreuses critiques. Certains soulignent qu'il n'explique pas comment de petits morceaux de conscience s'assemblent pour former des entités conscientes plus substantielles. Ses détracteurs affirment que cette énigme, connue sous le nom de "problème de la combinaison", équivaut à une version du problème difficile propre au panpsychisme. Le problème de la combinaison "est le défi majeur de la position panpsychiste", admet M. Goff. "Et c'est là que se concentre la majeure partie de notre énergie.

D'autres remettent en question le pouvoir explicatif du panpsychisme. Dans son livre Being You (2021), le neuroscientifique Anil Seth écrit que les principaux problèmes du panpsychisme sont qu'"il n'explique rien et qu'il ne conduit pas à des hypothèses vérifiables. C'est une échappatoire facile au mystère apparent posé par le problème difficile".

Si la plupart des personnes invitées à l'atelier étaient des philosophes, les physiciens Sean Carroll et Lee Smolin, ainsi que le psychologue cognitif Donald Hoffman, ont également pris la parole. Carroll, un physicaliste pur et dur, a joué le rôle de chef de file officieux de l'opposition pendant le déroulement de l'atelier. (Lors d'un débat public très suivi entre Goff et Carroll, la divergence de leurs visions du monde est rapidement devenue évidente. Goff a déclaré que le physicalisme ne menait "précisément nulle part" et a suggéré que l'idée même d'essayer d'expliquer la conscience en termes physiques était incohérente. M. Carroll a affirmé que le physicalisme se porte plutôt bien et que, bien que la conscience soit l'un des nombreux phénomènes qui ne peuvent être déduits des phénomènes microscopiques, elle constitue néanmoins une caractéristique réelle et émergente du monde macroscopique. Il a présenté la physique des gaz comme un exemple parallèle. Au niveau micro, on parle d'atomes, de molécules et de forces ; au niveau macro, on parle de pression, de volume et de température. Il s'agit de deux types d'explications, en fonction du "niveau" étudié, mais elles ne présentent pas de grand mystère et ne constituent pas un échec pour la physique. En peu de temps, Goff et Carroll se sont enfoncés dans les méandres de l'argument dit de la connaissance (également connu sous le nom de "Marie dans la chambre noire et blanche"), ainsi que de l'argument des "zombies". Tous deux se résument à la même question clé : Y a-t-il quelque chose à propos de la conscience qui ne peut être expliqué par les seuls faits physiques ? Une grande partie du ping-pong rhétorique entre Goff et Carroll a consisté pour Goff à répondre oui à cette question et pour Carroll à y répondre non.

Une autre objection soulevée par certains participants est que le panpsychisme n'aborde pas ce que les philosophes appellent le problème des "autres esprits". (Vous avez un accès direct à votre propre esprit, mais comment pouvez-vous déduire quoi que ce soit de l'esprit d'une autre personne ?) "Même si le panpsychisme est vrai, il y aura toujours un grand nombre de choses - notamment des choses liées à l'expérience des autres - que nous ne connaîtrons toujours pas", déclare Rebecca Chan, philosophe à l'université d'État de San José. Elle craint que l'invocation d'une couche sous-jacente d'esprit ne revienne à invoquer Dieu. Je me demande parfois si la position panpsychiste n'est pas similaire aux arguments du "dieu des lacunes"", dit-elle, en référence à l'idée que Dieu est nécessaire pour combler les lacunes de la connaissance scientifique.

D'autres idées ont été évoquées. L'idée du cosmopsychisme a été évoquée - en gros, l'idée que l'univers lui-même est conscient. Paul Draper, philosophe à l'université de Purdue qui a participé via Zoom, a parlé d'une idée subtilement différente connue sous le nom de "théorie de l'éther psychologique", à savoir que les cerveaux ne produisent pas la conscience mais l'utilisent plutôt. Selon cette théorie, la conscience existait déjà avant que les cerveaux n'existent, comme un ether omniprésent. Si cette idée est correcte, écrit-il, "alors (selon toute vraisemblance) Dieu existe".

M. Hoffman, chercheur en sciences cognitives à l'université de Californie à Irvine, qui s'est également adressé à l'atelier via Zoom, préconise de rejeter l'idée de l'espace-temps et de rechercher quelque chose de plus profond. (Il a cité l'idée de plus en plus populaire en physique ces derniers temps selon laquelle l'espace et le temps ne sont peut-être pas fondamentaux, mais constituent plutôt des phénomènes émergents). L'entité plus profonde liée à la conscience, suggère Hoffman, pourrait consister en "sujets et expériences" qui, selon lui, "sont des entités au-delà de l'espace-temps, et non dans l'espace-temps". Il a développé cette idée dans un article de 2023 intitulé "Fusions of Consciousness" (Fusions de conscience).

M. Smolin, physicien à l'Institut Perimeter pour la physique théorique en Ontario, qui a également participé via Zoom, a également travaillé sur des théories qui semblent offrir un rôle plus central aux agents conscients. Dans un article publié en 2020, il a suggéré que l'univers "est composé d'un ensemble de vues partielles de lui-même" et que "les perceptions conscientes sont des aspects de certaines vues" - une perspective qui, selon lui, peut être considérée comme "une forme restreinte de panpsychisme".

Carroll, qui s'est exprimé après la session à laquelle participaient Hoffman et Smolin, a noté que ses propres opinions divergeaient de celles des intervenants dès les premières minutes (au cours du déjeuner, il a fait remarquer que participer à l'atelier donnait parfois l'impression d'être sur un subreddit pour les fans d'une série télévisée qui ne vous intéresse tout simplement pas). Il a admis que les débats interminables sur la nature de la "réalité" le laissaient parfois frustré. Les gens me demandent : "Qu'est-ce que la réalité physique ? C'est la réalité physique ! Il n'y a rien qu'elle 'soit'. Que voulez-vous que je dise, qu'elle est faite de macaronis ou d'autre chose ?" (Même Carroll admet cependant que la réalité est plus complexe qu'il n'y paraît. Il est un fervent partisan de l'interprétation "multi-mondes" de la mécanique quantique, selon laquelle notre univers n'est qu'une facette d'un vaste multivers quantique).

Si tout cela semble n'avoir aucune valeur pratique, M. Goff a évoqué la possibilité que la façon dont nous concevons les esprits puisse avoir des implications éthiques. Prenons la question de savoir si les poissons ressentent la douleur. La science traditionnelle ne peut étudier que le comportement extérieur d'un poisson, et non son état mental. Pour M. Goff, se concentrer sur le comportement du poisson n'est pas seulement une erreur, c'est aussi une "horreur", car cela laisse de côté ce qui est en fait le plus important : ce que le poisson ressent réellement. "Nous allons cesser de nous demander si les poissons sont conscients et nous contenter de regarder leur comportement ? Qui se soucie du comportement ? Je veux savoir s'il a une vie intérieure, c'est tout ce qui compte ! Pour les physicalistes comme Carroll, cependant, les sentiments et le comportement sont intimement liés, ce qui signifie que nous pouvons éviter de faire souffrir un animal en ne le plaçant pas dans une situation où il semble souffrir en raison de son comportement. "S'il n'y avait pas de lien entre eux [comportement et sentiments], nous serions en effet dans le pétrin", déclare Carroll, "mais ce n'est pas notre monde".

Seth, le neuroscientifique, n'était pas présent à l'atelier, mais je lui ai demandé quelle était sa position dans le débat sur le physicalisme et ses différentes alternatives. Selon lui, le physicalisme offre toujours plus de "prise empirique" que ses concurrents, et il déplore ce qu'il considère comme une crispation excessive sur ses prétendus échecs, y compris la difficulté supposée due à un problème complexe. Critiquer le physicalisme au motif qu'il a "échoué" est une erreur volontaire de représentation", déclare-t-il. "Il se porte très bien, comme l'attestent les progrès de la science de la conscience. Dans un article récemment publié dans le Journal of Consciousness Studies, Seth ajoute : "Affirmer que la conscience est fondamentale et omniprésente n'éclaire en rien la raison pour laquelle l'expérience du bleu est telle qu'elle est, et pas autrement. Cela n'explique pas non plus les fonctions possibles de la conscience, ni pourquoi la conscience est perdue dans des états tels que le sommeil sans rêve, l'anesthésie générale et le coma".

Même ceux qui penchent pour le panpsychisme semblent parfois hésiter à plonger dans le grand bain. Comme le dit Garcia, malgré l'attrait d'un univers imprégné de conscience, "j'aimerais qu'on vienne m'en dissuader".

 

Auteur: Internet

Info: Dan Falk, September 25, 2023

[ perspectiviste ] [ atman ] [ interrogation ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel

symphonie des équations

Des " murmurations " de courbe elliptique découvertes grâce à l'IA prennent leur envol

Les mathématiciens s’efforcent d’expliquer pleinement les comportements inhabituels découverts grâce à l’intelligence artificielle.

(photo - sous le bon angle les courbes elliptiques peuvent se rassembler comme les grands essaims d'oiseaux.)

Les courbes elliptiques font partie des objets les plus séduisants des mathématiques modernes. Elle ne semblent pas compliqués, mais  forment une voie express entre les mathématiques que beaucoup de gens apprennent au lycée et les mathématiques de recherche dans leur forme la plus abstruse. Elles étaient au cœur de la célèbre preuve du dernier théorème de Fermat réalisée par Andrew Wiles dans les années 1990. Ce sont des outils clés de la cryptographie moderne. Et en 2000, le Clay Mathematics Institute a désigné une conjecture sur les statistiques des courbes elliptiques comme l'un des sept " problèmes du prix du millénaire ", chacun d'entre eux étant récompensé d'un million de dollars pour sa solution. Cette hypothèse, formulée pour la première fois par Bryan Birch et Peter Swinnerton-Dyer dans les années 1960, n'a toujours pas été prouvée.

Comprendre les courbes elliptiques est une entreprise aux enjeux élevés qui est au cœur des mathématiques. Ainsi, en 2022, lorsqu’une collaboration transatlantique a utilisé des techniques statistiques et l’intelligence artificielle pour découvrir des modèles complètement inattendus dans les courbes elliptiques, cela a été une contribution bienvenue, bien qu’inattendue. "Ce n'était qu'une question de temps avant que l'apprentissage automatique arrive à notre porte avec quelque chose d'intéressant", a déclaré Peter Sarnak , mathématicien à l'Institute for Advanced Study et à l'Université de Princeton. Au départ, personne ne pouvait expliquer pourquoi les modèles nouvellement découverts existaient. Depuis lors, dans une série d’articles récents, les mathématiciens ont commencé à élucider les raisons derrière ces modèles, surnommés " murmures " en raison de leur ressemblance avec les formes fluides des étourneaux en troupeaux, et ont commencé à prouver qu’ils ne doivent pas se produire uniquement dans des cas particuliers. exemples examinés en 2022, mais dans les courbes elliptiques plus généralement.

L'importance d'être elliptique

Pour comprendre ces modèles, il faut jeter les bases de ce que sont les courbes elliptiques et de la façon dont les mathématiciens les catégorisent.

Une courbe elliptique relie le carré d'une variable, communément écrite comme y , à la troisième puissance d'une autre, communément écrite comme x : 2  =  3  + Ax + B , pour une paire de nombres A et B , tant que A et B remplissent quelques conditions simples. Cette équation définit une courbe qui peut être représentée graphiquement sur le plan, comme indiqué ci-dessous. (Photo : malgré la similitude des noms, une ellipse n'est pas une courbe elliptique.)

Introduction

Bien qu’elles semblent simples, les courbes elliptiques s’avèrent être des outils incroyablement puissants pour les théoriciens des nombres – les mathématiciens qui recherchent des modèles dans les nombres entiers. Au lieu de laisser les variables x et y s'étendre sur tous les nombres, les mathématiciens aiment les limiter à différents systèmes numériques, ce qu'ils appellent définir une courbe " sur " un système numérique donné. Les courbes elliptiques limitées aux nombres rationnels – nombres qui peuvent être écrits sous forme de fractions – sont particulièrement utiles. "Les courbes elliptiques sur les nombres réels ou complexes sont assez ennuyeuses", a déclaré Sarnak. "Seuls les nombres rationnels sont profonds."

Voici une façon qui est vraie. Si vous tracez une ligne droite entre deux points rationnels sur une courbe elliptique, l’endroit où cette ligne coupe à nouveau la courbe sera également rationnel. Vous pouvez utiliser ce fait pour définir " addition " dans une courbe elliptique, comme indiqué ci-dessous. 

(Photo -  Tracez une ligne entre P et Q . Cette ligne coupera la courbe en un troisième point, R . (Les mathématiciens ont une astuce spéciale pour gérer le cas où la ligne ne coupe pas la courbe en ajoutant un " point à l'infini ".) La réflexion de R sur l' axe des x est votre somme P + Q . Avec cette opération d'addition, toutes les solutions de la courbe forment un objet mathématique appelé groupe.)

Les mathématiciens l'utilisent pour définir le " rang " d'une courbe. Le rang d'une courbe est lié au nombre de solutions rationnelles dont elle dispose. Les courbes de rang 0 ont un nombre fini de solutions. Les courbes de rang supérieur ont un nombre infini de solutions dont la relation les unes avec les autres à l'aide de l'opération d'addition est décrite par le rang.

Les classements (rankings) ne sont pas bien compris ; les mathématiciens n'ont pas toujours le moyen de les calculer et ne savent pas quelle taille ils peuvent atteindre. (Le plus grand rang exact connu pour une courbe spécifique est 20.) Des courbes d'apparence similaire peuvent avoir des rangs complètement différents.

Les courbes elliptiques ont aussi beaucoup à voir avec les nombres premiers, qui ne sont divisibles que par 1 et par eux-mêmes. En particulier, les mathématiciens examinent les courbes sur des corps finis – des systèmes d’arithmétique cyclique définis pour chaque nombre premier. Un corps fini est comme une horloge dont le nombre d'heures est égal au nombre premier : si vous continuez à compter vers le haut, les nombres recommencent. Dans le corps fini de 7, par exemple, 5 plus 2 est égal à zéro et 5 plus 3 est égal à 1.

(Photo : Les motifs formés par des milliers de courbes elliptiques présentent une similitude frappante avec les murmures des étourneaux.)

Une courbe elliptique est associée à une séquence de nombres, appelée a p , qui se rapporte au nombre de solutions qu'il existe à la courbe dans le corps fini défini par le nombre premier p . Un p plus petit signifie plus de solutions ; un p plus grand signifie moins de solutions. Bien que le rang soit difficile à calculer, la séquence a p est beaucoup plus simple.

Sur la base de nombreux calculs effectués sur l'un des tout premiers ordinateurs, Birch et Swinnerton-Dyer ont conjecturé une relation entre le rang d'une courbe elliptique et la séquence a p . Quiconque peut prouver qu’il avait raison gagnera un million de dollars et l’immortalité mathématique.

Un modèle surprise émerge

Après le début de la pandémie, Yang-Hui He , chercheur au London Institute for Mathematical Sciences, a décidé de relever de nouveaux défis. Il avait étudié la physique à l'université et avait obtenu son doctorat en physique mathématique du Massachusetts Institute of Technology. Mais il s'intéressait de plus en plus à la théorie des nombres et, étant donné les capacités croissantes de l'intelligence artificielle, il pensait essayer d'utiliser l'IA comme un outil permettant de trouver des modèles inattendus dans les nombres. (Il avait déjà utilisé l'apprentissage automatique pour classifier les variétés de Calabi-Yau , des structures mathématiques largement utilisées en théorie des cordes.

(Photo ) Lorsque Kyu-Hwan Lee (à gauche) et Thomas Oliver (au centre) ont commencé à travailler avec Yang-Hui He (à droite) pour utiliser l'intelligence artificielle afin de trouver des modèles mathématiques, ils s'attendaient à ce que ce soit une plaisanterie plutôt qu'un effort qui mènerait à de nouveaux découvertes. De gauche à droite : Grace Lee ; Sophie Olivier ; gracieuseté de Yang-Hui He.

En août 2020, alors que la pandémie s'aggravait, l'Université de Nottingham l'a accueilli pour une conférence en ligne . Il était pessimiste quant à ses progrès et quant à la possibilité même d’utiliser l’apprentissage automatique pour découvrir de nouvelles mathématiques. "Son récit était que la théorie des nombres était difficile parce qu'on ne pouvait pas apprendre automatiquement des choses en théorie des nombres", a déclaré Thomas Oliver , un mathématicien de l'Université de Westminster, présent dans le public. Comme il se souvient : " Je n'ai rien trouvé parce que je n'étais pas un expert. Je n’utilisais même pas les bons éléments pour examiner cela."

Oliver et Kyu-Hwan Lee , mathématicien à l'Université du Connecticut, ont commencé à travailler avec He. "Nous avons décidé de faire cela simplement pour apprendre ce qu'était l'apprentissage automatique, plutôt que pour étudier sérieusement les mathématiques", a déclaré Oliver. "Mais nous avons rapidement découvert qu'il était possible d'apprendre beaucoup de choses par machine."

Oliver et Lee lui ont suggéré d'appliquer ses techniques pour examiner les fonctions L , des séries infinies étroitement liées aux courbes elliptiques à travers la séquence a p . Ils pourraient utiliser une base de données en ligne de courbes elliptiques et de leurs fonctions L associées , appelée LMFDB , pour former leurs classificateurs d'apprentissage automatique. À l’époque, la base de données contenait un peu plus de 3 millions de courbes elliptiques sur les rationnels. En octobre 2020, ils avaient publié un article utilisant les informations glanées à partir des fonctions L pour prédire une propriété particulière des courbes elliptiques. En novembre, ils ont partagé un autre article utilisant l’apprentissage automatique pour classer d’autres objets en théorie des nombres. En décembre, ils étaient capables de prédire les rangs des courbes elliptiques avec une grande précision.

Mais ils ne savaient pas vraiment pourquoi leurs algorithmes d’apprentissage automatique fonctionnaient si bien. Lee a demandé à son étudiant de premier cycle Alexey Pozdnyakov de voir s'il pouvait comprendre ce qui se passait. En l’occurrence, la LMFDB trie les courbes elliptiques en fonction d’une quantité appelée conducteur, qui résume les informations sur les nombres premiers pour lesquels une courbe ne se comporte pas correctement. Pozdnyakov a donc essayé d’examiner simultanément un grand nombre de courbes comportant des conducteurs similaires – disons toutes les courbes comportant entre 7 500 et 10 000 conducteurs.

Cela représente environ 10 000 courbes au total. Environ la moitié d'entre eux avaient le rang 0 et l'autre moitié le rang 1. (Les rangs supérieurs sont extrêmement rares.) Il a ensuite fait la moyenne des valeurs de a p pour toutes les courbes de rang 0, a fait la moyenne séparément de a p pour toutes les courbes de rang 1 et a tracé la résultats. Les deux ensembles de points formaient deux vagues distinctes et facilement discernables. C’est pourquoi les classificateurs d’apprentissage automatique ont été capables de déterminer correctement le rang de courbes particulières.

" Au début, j'étais simplement heureux d'avoir terminé ma mission", a déclaré Pozdnyakov. "Mais Kyu-Hwan a immédiatement reconnu que ce schéma était surprenant, et c'est à ce moment-là qu'il est devenu vraiment excitant."

Lee et Oliver étaient captivés. "Alexey nous a montré la photo et j'ai dit qu'elle ressemblait à ce que font les oiseaux", a déclaré Oliver. "Et puis Kyu-Hwan l'a recherché et a dit que cela s'appelait une murmuration, puis Yang a dit que nous devrions appeler le journal ' Murmurations de courbes elliptiques '."

Ils ont mis en ligne leur article en avril 2022 et l’ont transmis à une poignée d’autres mathématiciens, s’attendant nerveusement à se faire dire que leur soi-disant « découverte » était bien connue. Oliver a déclaré que la relation était si visible qu'elle aurait dû être remarquée depuis longtemps.

Presque immédiatement, la prépublication a suscité l'intérêt, en particulier de la part d' Andrew Sutherland , chercheur scientifique au MIT et l'un des rédacteurs en chef de la LMFDB. Sutherland s'est rendu compte que 3 millions de courbes elliptiques n'étaient pas suffisantes pour atteindre ses objectifs. Il voulait examiner des gammes de conducteurs beaucoup plus larges pour voir à quel point les murmures étaient robustes. Il a extrait des données d’un autre immense référentiel d’environ 150 millions de courbes elliptiques. Toujours insatisfait, il a ensuite extrait les données d'un autre référentiel contenant 300 millions de courbes.

"Mais même cela ne suffisait pas, j'ai donc calculé un nouvel ensemble de données de plus d'un milliard de courbes elliptiques, et c'est ce que j'ai utilisé pour calculer les images à très haute résolution", a déclaré Sutherland. Les murmures indiquaient s'il effectuait en moyenne plus de 15 000 courbes elliptiques à la fois ou un million à la fois. La forme est restée la même alors qu’il observait les courbes sur des nombres premiers de plus en plus grands, un phénomène appelé invariance d’échelle. Sutherland s'est également rendu compte que les murmures ne sont pas propres aux courbes elliptiques, mais apparaissent également dans des fonctions L plus générales . Il a écrit une lettre résumant ses découvertes et l'a envoyée à Sarnak et Michael Rubinstein de l'Université de Waterloo.

"S'il existe une explication connue, j'espère que vous la connaîtrez", a écrit Sutherland.

Ils ne l'ont pas fait.

Expliquer le modèle

Lee, He et Oliver ont organisé un atelier sur les murmurations en août 2023 à l'Institut de recherche informatique et expérimentale en mathématiques (ICERM) de l'Université Brown. Sarnak et Rubinstein sont venus, tout comme l'étudiante de Sarnak, Nina Zubrilina .

LA THÉORIE DU NOMBRE

Zubrilina a présenté ses recherches sur les modèles de murmuration dans des formes modulaires , des fonctions complexes spéciales qui, comme les courbes elliptiques, sont associées à des fonctions L. Dans les formes modulaires dotées de grands conducteurs, les murmurations convergent vers une courbe nettement définie, plutôt que de former un motif perceptible mais dispersé. Dans un article publié le 11 octobre 2023, Zubrilina a prouvé que ce type de murmuration suit une formule explicite qu'elle a découverte.

" La grande réussite de Nina est qu'elle lui a donné une formule pour cela ; Je l’appelle la formule de densité de murmuration Zubrilina ", a déclaré Sarnak. "En utilisant des mathématiques très sophistiquées, elle a prouvé une formule exacte qui correspond parfaitement aux données."

Sa formule est compliquée, mais Sarnak la salue comme un nouveau type de fonction important, comparable aux fonctions d'Airy qui définissent des solutions aux équations différentielles utilisées dans divers contextes en physique, allant de l'optique à la mécanique quantique.

Bien que la formule de Zubrilina ait été la première, d'autres ont suivi. "Chaque semaine maintenant, un nouvel article sort", a déclaré Sarnak, "utilisant principalement les outils de Zubrilina, expliquant d'autres aspects des murmurations."

(Photo - Nina Zubrilina, qui est sur le point de terminer son doctorat à Princeton, a prouvé une formule qui explique les schémas de murmuration.)

Jonathan Bober , Andrew Booker et Min Lee de l'Université de Bristol, ainsi que David Lowry-Duda de l'ICERM, ont prouvé l'existence d'un type différent de murmuration sous des formes modulaires dans un autre article d'octobre . Et Kyu-Hwan Lee, Oliver et Pozdnyakov ont prouvé l'existence de murmures dans des objets appelés caractères de Dirichlet qui sont étroitement liés aux fonctions L.

Sutherland a été impressionné par la dose considérable de chance qui a conduit à la découverte des murmurations. Si les données de la courbe elliptique n'avaient pas été classées par conducteur, les murmures auraient disparu. "Ils ont eu la chance de récupérer les données de la LMFDB, qui étaient pré-triées selon le chef d'orchestre", a-t-il déclaré. « C'est ce qui relie une courbe elliptique à la forme modulaire correspondante, mais ce n'est pas du tout évident. … Deux courbes dont les équations semblent très similaires peuvent avoir des conducteurs très différents. Par exemple, Sutherland a noté que 2 = 3 – 11 x + 6 a un conducteur 17, mais en retournant le signe moins en signe plus, 2 = 3  + 11 x + 6 a un conducteur 100 736.

Même alors, les murmures n'ont été découverts qu'en raison de l'inexpérience de Pozdniakov. "Je ne pense pas que nous l'aurions trouvé sans lui", a déclaré Oliver, "parce que les experts normalisent traditionnellement a p pour avoir une valeur absolue de 1. Mais il ne les a pas normalisés… donc les oscillations étaient très importantes et visibles."

Les modèles statistiques que les algorithmes d’IA utilisent pour trier les courbes elliptiques par rang existent dans un espace de paramètres comportant des centaines de dimensions – trop nombreuses pour que les gens puissent les trier dans leur esprit, et encore moins les visualiser, a noté Oliver. Mais même si l’apprentissage automatique a découvert les oscillations cachées, " ce n’est que plus tard que nous avons compris qu’il s’agissait de murmures ".



 

Auteur: Internet

Info: Paul Chaikin pour Quanta Magazine, 5 mars 2024 - https://www.quantamagazine.org/elliptic-curve-murmurations-found-with-ai-take-flight-20240305/?mc_cid=797b7d1aad&mc_eid=78bedba296

[ résonance des algorithmes ] [ statistiques en mouvement ] [ chants des fractales ] [ bancs de poissons ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde covidien

Paniques anticomplotistes

Si Hold-up n’avait pas existé, les anticomplotistes l’auraient inventé. C’est le produit parfait, le bloc de complotisme-étalon en platine iridié, déposé au Pavillon de Breteuil à Sèvres.(...)

Le torrent de commentaires qu’a immédiatement suscité la diffusion du documentaire est sans doute le premier signe qui trahit la fébrilité — du temps a passé depuis le mépris et les ricanements. Si encore il n’y avait que la quantité. Mais il faut voir la "qualité". C’est peut-être là le trait le plus caractéristique de l’épisode "Hold-up" que toutes les réactions médiatiques ou expertes suscitée par le documentaire ne font que reconduire les causes qui l’ont rendu possible. Les fortes analyses reprises à peu près partout ont d’abord fait assaut de savoirs professionnels par des professionnels : "la musique" — inquiétante (la musique complotiste est toujours inquiétante), le format "interviews d’experts sur fond sombre" (le complotisme est sombre), "le montage" (le montage… monte ?). C’est-à-dire, en fait, les ficelles ordinaires, et grossières, de tous les reportages de M6, TF1, LCI, BFM, France 2, etc. Et c’est bien parce que l’habitude de la bouillie de pensée a été installée de très longue date par ces formats médiatiques que les spectateurs de documentaires complotistes ne souffrent d’aucun dépaysement, se trouvent d’emblée en terrain formel connu, parfaitement réceptifs... et auront du mal à comprendre que ce qui est standard professionnel ici devienne honteuse manipulation là.

Complotistes ou décrypteurs ?

Mais les médias ont passé ce point d’inquiétude où l’on sent bien qu’on ne peut plus se contenter de la stigmatisation des cinglés. L’urgence maintenant c’est de comprendre — hélas en partant de si loin, et avec si peu de moyens. Alors la science médiatique-complotologique pioche pour refaire son retard, et tout y passe. Il y a d’abord, nous dit très sérieusement Nicolas Celnik dans Libération (lui aussi a compris qu’il ne fallait plus se moquer, alors il écrit une "Lettre à (son) ami complotiste"), que l’un des ressorts positifs des adeptes de complots vient de "l’impression d’avoir découvert ce qui devait rester caché". Mais Nicolas Celnik sait-il que le vocable princeps de l’idéologie journalistique est "décrypter", ce qui, si l’on suit bien l’étymologie, signifie, précisément, mettre à découvert ce qui était caché. Il n’est pas un organe de presse qui ne s’enorgueillisse de ses "décryptages". (...)

Le décryptage autorisé a toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente

Ici le parallélisme manifestement inaperçu entre les îlotes tentant de "découvrir ce qui devrait rester caché" et l’aristocratie des "décrypteurs" se complique de ce que le décryptage autorisé n’a jamais rien décrypté, qu’il a même toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente, en quoi consiste le catéchisme néolibéral. Il suffit d’écouter un "décrypteur" livrer aux masses abruties qu’il a la bonté d’éclairer le sens profond de la suppression de l’ISF, de la réduction de la dette publique ou du démantèlement du code du travail pour être au clair sur ce que "décrypter" signifie réellement — à savoir voiler dans les catégories de la pensée néolibérale. "Décrypter", c’est avoir admis que les gueux ne se contentent plus d’une simple injonction, et entreprendre de leur en donner les bonnes raisons. Par exemple : "il faut supprimer l’ISF sinon les cerveaux partiront" — là c’est décrypté ; "il faut réduire la fiscalité du capital pour financer nos entreprises" (tout est clair) ; "il faut fermer des lits pour que l’hôpital soit agile" (décryptage de qualité : qui voudrait d’un hôpital podagre ou arthritique ? on comprend) ; "il faut réduire les dépenses publiques pour ne pas laisser la dette à nos enfants" (clarté économique, clarté morale), etc.

C’est très exaltant pour un journaliste de décrypter, ça donne un grand sentiment d’utilité sociale, c’est comme une charité démocratique. Les gueux ne pouvaient pas apercevoir tout ça, ça leur restait donc crypté — du coup on le leur décrypte. Décrypter, c’est faire comprendre aux intéressés ce qu’on va leur faire, pourquoi c’est nécessaire, et pourquoi c’est bon pour eux. (...)

Les complotistes en tout cas ont parfaitement reçu le message du "décryptage", à ceci près qu’à force de s’entendre administrer par d’autres un sens inaperçu du monde qui les bousille en leur expliquant qu’il est le meilleur possible, ils ont entrepris de s’en chercher un autre par eux-mêmes. Ça ne donne sans doute pas des résultats bien fameux — mais à décrypteur, décrypteur et demi. C’est le "décryptage" lui-même qui, pour permettre aux journalistes de faire les entendus, a installé l’idée qu’il y avait quelque chose à aller chercher dessous. Les complotistes les prennent au mot, à ceci près que le quelque chose des décrypteurs étant toujours la même chose, eux se mettent en devoir d’aller chercher autre chose.

Cérébroscopie des complotistes

Alors on va chercher pourquoi l’autodécryptage des gueux décrypte de travers. Ici la science complotologique est à son meilleur. Comme les sciences les plus avancées, elle isole des "effets". Par exemple la physique connaît "l’effet Compton", "l’effet Doppler", "l’effet Einstein". La complotologie, pour sa part dispose de l’effet "millefeuille argumentatif". Impossible d’ouvrir un article sur Hold-up sans avoir à manger du millefeuille (argumentatif) — une feuille de vrai, une feuille de faux, une feuille de vrai... Un journaliste de Mediapart va plus loin et pose gravement la question : "pourquoi nos cerveaux sont-ils si perméables" (à l’aberration complotiste) ? "Nos" : pas de discrimination offensante. "Cerveaux" : parce que c’est là-dedans que ça se passe. La réception du complotisme, c’est une affaire "dans le cerveau". Un psychologue social, dont la psychologie sociale n’a plus rien de social (mais c’est la grande tendance de la psychologie sociale) saisit aussitôt la perche du "cerveau" : comme une invitation faite aux sciences cognitives et à leur panacée explicative : le biais. Pourquoi le "cerveau" (des complotistes) erre-t-il ? Parce qu’il est en proie à des biais (cognitifs) — marche aussi avec "pourquoi votre fille est muette" : elle est en proie à des biais (auditifs). Après le biais pâtissier (celui du millefeuille — particulièrement traître avec toute cette crème, on ne sait plus si on mange des feuilles vraies ou des feuilles fausses), le biais de confirmation, puis le biais d’intentionnalité (à qui profite le crime ?), etc. De ce qu’il y a des biais, il résulte que la pensée n’est pas droite. C’est scientifique, on a bien avancé.

(...)

Les paroles institutionnelles en ruines

Voilà donc où en est la "compréhension" du fait complotiste dans les médias assistés de leurs experts satellites. D’où naît irrésistiblement un désir de compréhension de cette "compréhension", ou plutôt de cette incompréhension, de cette compréhension tronquée sur l’essentiel. En réalité, que la formation des opinions reprenne toute liberté, pour le meilleur et pour le pire, quand l’autorité des paroles institutionnelles est à terre, ça n’a pas grand-chose de surprenant. Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre. On les comprend : l’examen de conscience promet d’être douloureux, autant s’en dispenser — et maintenir le problème bien circonscrit au cerveau des complotistes.

Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre

C’est que l’autorité des paroles institutionnelles n’a pas été effondrée du dehors par quelque choc exogène adverse : elle s’est auto-effondrée, sous le poids de tous ses manquements. À commencer par le mensonge des institutions de pouvoir. Les institutions de pouvoir mentent. Mediator : Servier ment. Dépakine : Sanofi ment. Bridgestone : Bridgetsone ment. 20 milliards de CICE pour créer un million d’emplois : le Medef ment. Mais aussi : Lubrizol, les pouvoirs publics mentent ; nucléaire, tout est sûr : les nucléocrates mentent. Loi de programmation de la recherche : Vidal ment (mais à un point extravagant). Violences policières, alors là, la fête : procureurs, préfecture, IGPN, ministres, président de la République, tout le monde ment, et avec une obscénité resplendissante qui ajoute beaucoup. Covid : hors-concours.

Le capitalisme néolibéral a déchaîné les intérêts les plus puissants, or là où les intérêts croissent, la vérité trépasse. C’est qu’il faut bien accommoder la contradiction entre des politiques publiques forcenées et l’effet qu’elles font aux gens. Or pour combler ce genre d’écart, quand on a décidé de ne pas toucher aux causes de l’écart, il n’y a que le secours des mots. Alors on arrose généreusement avec du discours. Au début on fait de la "pédagogie", on "décrypte". Et puis quand le décryptage ne marche plus, il ne reste plus qu’à mentir — à soutenir que ce qui est n’est pas ("la police républicaine ne se cagoule pas, elle agit à visage découvert"), ou que ce qui n’est pas est (on ferme des lits pour améliorer l’accueil des malades). Quand il n’est pas pure et simple répression, le néolibéralisme finissant n’est plus qu’une piscine de mensonge. Nous baignons là-dedans. C’est devenu une habitude, et en même temps on ne s’y habitue pas. Vient forcément le moment où l’autorité de la parole institutionnelle s’effondre parce que l’écart entre ce qu’elle dit et ce que les gens expérimentent n’est plus soutenable d’aucune manière.

Alors ça part en glissement de terrain, et tout s’en va avec, notamment les médias d’accompagnement, précisément parce qu’ils auront accompagné, trop accompagné, pendant trop longtemps. Ils auront tant répété, tant ratifié, se seront tant empressés. Les complotistes voient l’esprit critique de la presse se réarmer dans la journée même de la parution d’un documentaire. Mais, en matière d’esprit critique, ils se souviennent aussitôt des interviews de Léa Salamé, de Macron interrogé par TF1-France2-BFM, de la soupe servie à la louche argentée, de la parole gouvernementale outrageusement mensongère mais jamais reprise comme telle, ils se souviennent de deux mois d’occultation totale des violences policières contre les "gilets jaunes", ils se souviennent du journalisme de préfecture qui a si longtemps débité tels quels les communiqués de Beauvau, certifié l’envahissement de la Salpêtrière par des casseurs.(...) C’est long trente ans à ce régime, pendant que le chômage, la précarité, les inégalités, les suicides et les services publics explosent. Ça en fait du travail de sape dans les esprits.

En fait c’est très simple : pourquoi les paroles institutionnelles s’effondrent-elles ? Parce que, dans le temps même où elles présidaient au délabrement de la société, elles auront, chacune dans leur genre, ou trop menti, ou trop couvert, ou trop laissé passer, ou trop regardé ailleurs, ou trop léché, que ça s’est trop vu, et qu’à un moment, ça se paye. Le complotisme en roue libre, c’est le moment de l’addition. Il faut vraiment être journaliste, ou expert de Conspiracy Watch pour ne pas voir ça. Trente ans de ruine à petit feu de l’autorité institutionnelle, et puis un beau jour, l’immeuble entier qui s’effondre : le discrédit. Mais normalement on sait ça : le crédit détruit, ne se reconstruit pas rapidement. Maintenant, il y a les ruines, et il va falloir faire au milieu des gravats pour un moment. On comprend que la plupart des médias, qui comptent au nombre des gravats, ne se résolvent pas à regarder le tableau. C’est bien pourquoi il fallait faire aussitôt un hold-up sur Hold-up : pour en fixer la "compréhension", et qu’elle ne s’en aille surtout pas ailleurs.

Rééducation et bienveillance

En attendant, la soupe est renversée et on a les complotistes sur les bras. Comment faire ? On a compris que l’heure de les traiter de cinglés était passée et qu’il urge de trouver autre chose pour endiguer la marée. Mais quoi ? Dans l’immédiat, pas grand-chose hélas, en tout cas pas ça. Il va falloir se faire à l’idée que la ruine des constructions de longue période, comme le crédit fait à la parole institutionnelle, ne se répare que par des reconstructions de longue période (par exemple, la destruction présente de la chaîne éducation-recherche prendra des décennies à être surmontée). Tant que la phalange anticomplotiste continuera d’apparaître telle qu’elle est, c’est-à-dire soudée au bloc des pouvoirs, le crédit de l’ensemble restera à zéro. En réalité, tant que la masse "médias" ne se fragmentera pas, tant que ne s’en détachera pas une fraction significative, qui rompe avec la position globale de ratification de l’ordre néolibéral et de déférence à l’endroit de tous ses pouvoirs, les clients du complotisme continueront de n’y voir qu’un appareil homogène de propagande — et d’aller chercher "ailleurs". Les gens ne vont chercher un "ailleurs" au-dehors que lorsque le champ institutionnel a échoué à aménager un "ailleurs" au-dedans. Mais quel aggiornamento, quelles révisions déchirantes, cette rupture, maintenant, ne suppose-t-elle pas ?

Pour l’heure, incapable, la parole autorisée cherche fébrilement quelque autre ressource — mais forcément au voisinage de ses formes de pensée invétérées. Idée de génie et redéploiement pédagogique : on va aller leur parler. Mais gentiment cette fois. On va leur écrire des lettres, en leur disant qu’ils sont nos amis — c’est donc la version Libération. Il y a celle du Monde. Si l’ambiance générale n’était pas si flippante, ce serait à se rouler par terre de rire. Tout y est. On va chercher Valérie Igounet de Conspiracy Watch — on avait l’habitude jusqu’ici de Rudy Reichstadt mais lui est trop épais, c’était l’anticomplotisme première manière, maintenant on ne peut plus le sortir. Dans la saison 2, ça donne : "Il faut réfuter par des faits, décrypter, mais sans être dans l’accusation ou la moquerie". Voilà la solution : tout dans l’onctueux, l’humain et la bienveillance — on est excellemment partis. "On est sur un fil", ajoute quand même l’experte dans un souffle. Tu l’as dit Valérie.

Tristan Mendès-France, lui, explique à peu de choses près qu’on a le stock des zinzins sur les bras et qu’avec eux, c’est foutu, il faudra faire avec. Mais que tout notre effort doit aller à enrayer les nouveaux recrutements : "il faut viser les primo-arrivants, faire de la prévention". Valérie Igounet a déjà commencé : elle mène, nous explique Le Monde, "de nombreux ateliers avec l’Observatoire du complotisme auprès d’enfants" — il faut prendre les "primo-arrivants" de loin. Tout le problème de l’anticomplotisme, c’est qu’il peut prononcer l’âme claire une phrase pareille qui, normalement, devrait faire froid dans le dos. Qu’on n’aille pas croire à une embardée individuelle : c’est la ligne générale. Le nouvel expert gyroscopique — il tourne sur à peu près tous les médias, France Culture, Le Monde, Regards —, Thomas Huchon, pense également qu’il faut "faire de l’éducation aux médias (…) en gros de la prévention pour vacciner contre l’épidémie de “fake news”". On se croirait au point de presse de Jérôme Salomon, et ça n’est pas un hasard. Car c’est cela qu’on trouve dans une tête d’anticomplotiste : des images de bacilles, de prophylaxie et de cordon sanitaire. De politique ? Aucunement. Ça n’est pas une affaire de politique, ou de discours politique : c’est une affaire médicale.

On voit d’ici à quoi pourra ressembler "l’éducation", ou plutôt la rééducation, aux médias. L’essentiel est que l’analyse du complotisme soit ramenée à son cadre : d’un côté le pathologique, de l’autre le pédagogique. Et puis, dans le camp-école réaménagé, les éducateurs, nous est-il désormais garanti, seront pleins d’empathie et d’écoute : "la diffusion du complotisme, conclut l’article du Monde, pose un défi à une multitude d’acteurs qui doivent plus que jamais prendre le temps d’expliquer, de démontrer, sans ostraciser ni caricaturer". De ne rien comprendre à ce point, c’en est extravagant. Finalement, rien n’a bougé d’un iota, le complotisme a encore de beaux jours devant lui. On se croirait revenu dans Tintin au Congo, mais où on aurait rappelé les missionnaires pour leur faire faire une UV de psycho avant de les renvoyer sur le terrain : "Nous n’économiserons ni notre patience ni notre bonté pour vous faire apercevoir que les esprits de la forêt n’existent pas. Puisque ce qui existe, c’est Dieu". 

Auteur: Lordon Fredéric

Info: https://blog.mondediplo.net/paniques-anticomplotistes, 25 nov 2020

[ contre-mesures sémantiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

résonances organiques

Les avantages sociaux de la synchronisation de notre cerveau

Nos ondes cérébrales peuvent s'aligner lorsque nous travaillons et jouons en étroite collaboration. Le phénomène, connu sous le nom de synchronisation inter-cerveau, suggère que la collaboration est biologique.

(Photo : De plus en plus de recherches montrent comment l’activité neuronale peut se synchroniser entre plusieurs personnes, ce qui entraîne de meilleurs résultats sociaux et créatifs.)

Le célèbre duo de pianos polonais Marek et Wacek n'utilisait pas de partitions lors de ses concerts live. Et pourtant, sur scène, le duo semblait parfaitement synchronisé. Sur des pianos adjacents, ils reprenaient de manière ludique divers thèmes musicaux, mêlé musique classique et jazz et improvisé en temps réel. "Nous avons suivi le courant", a déclaré Marek Tomaszewski, qui a joué avec Wacek Kisielewski jusqu'à la mort de Wacek en 1986. "C'était un pur plaisir."

Les pianistes semblaient lire dans les pensées des autres en échangeant des regards. C’était, dit Marek, comme s’ils étaient sur la même longueur d’onde. Un nombre croissant de recherches suggèrent que cela aurait pu être littéralement vrai.

Des dizaines d'expériences récentes étudiant l'activité cérébrale de personnes qui se produisent et travaillent ensemble – pianistes en duo, joueurs de cartes, enseignants et étudiants, puzzleurs et autres – montrent que leurs ondes cérébrales peuvent s'aligner dans un phénomène connu sous le nom de synchronisation neuronale interpersonnelle, également connue sous le nom de synchronie inter-cerveau.

"De nombreuses recherches montrent désormais que les personnes qui interagissent ensemble présentent des activités neuronales coordonnées", a déclaré Giacomo Novembre, neuroscientifique cognitif à l'Institut italien de technologie de Rome, qui a publié l'été dernier un article clé sur ce sujet. Les études se sont multipliées au cours des dernières années – notamment la semaine dernière – au fur et à mesure que de nouveaux outils et des techniques améliorées ont affiné la science et la théorie.

Ils montrent que la synchronisation entre les cerveaux présente des avantages. Qui conduit à une meilleure résolution de problèmes, à un meilleur apprentissage et à une meilleure coopération, et même à des comportements qui aident les autres à leur dépens. De plus, des études récentes dans lesquelles les cerveaux ont été stimulés par un courant électrique suggèrent que la synchronisation elle-même pourrait entraîner l'amélioration des performances observée par les scientifiques.

" La cognition est quelque chose qui se produit non seulement dans le crâne, mais aussi en relation avec l'environnement et avec les autres ", a déclaré Guillaume Dumas, professeur de psychiatrie computationnelle à l'Université de Montréal. Comprendre quand et comment nos cerveaux se synchronisent pourrait nous aider à communiquer plus efficacement, à concevoir de meilleures salles de classe et à aider les équipes à coopérer.

Se synchroniser


Les humains, comme les autres animaux sociaux, ont tendance à synchroniser leurs comportements. Si vous marchez à côté de quelqu’un, vous commencerez probablement à marcher au pas. Si deux personnes s’assoient côte à côte dans des fauteuils à bascule, il y a de fortes chances qu’elles commencent à se balancer au même rythme.

Une telle synchronisation comportementale, selon les recherches, nous rend plus confiants, nous aide à créer des liens et stimule nos instincts sociaux. Dans une étude, danser de manière synchronisée permettait aux participants de se sentir émotionnellement proches les uns des autres – bien plus que pour les groupes qui se déplaçaient de manière asynchrone. Dans une autre étude, les participants qui scandaient des mots de manière rythmée étaient plus susceptibles de coopérer à un jeu d'investissement. Même une simple marche à l'unisson avec une personne issue d'une minorité ethnique peut réduire les préjugés.

" La coordination est une caractéristique de l’interaction sociale. C'est vraiment crucial " a déclaré Novembre. "Lorsque la coordination est altérée, l'interaction sociale est profondément altérée."

Lorsque nos mouvements se coordonnent, une myriade de synchronisations invisibles à l’œil nu se produisent également à l’intérieur de notre corps. Quand les gens tambourinent ensemble, leurs cœurs battent ensemble. Les fréquences cardiaques des thérapeutes et de leurs patients peuvent se synchroniser pendant les séances (surtout si la relation thérapeutique fonctionne bien), tout comme celles des couples mariés. D’autres processus physiologiques, tels que notre rythme respiratoire et nos niveaux de conductance cutanée, peuvent également correspondre à ceux d’autres personnes.

(Photo : Ce n’est qu’au cours des 20 dernières années qu’est apparue une technologie permettant aux neuroscientifiques d’étudier la synchronisation inter-cerveau. L'hyperscanning utilise la spectroscopie fonctionnelle proche infrarouge, portée sur un appareil semblable à un bonnet de bain, pour surveiller l'activité neuronale de plusieurs individus s'engageant socialement.)

L’activité de notre cerveau peut-elle se synchroniser ? En 1965, la revue Science a publié les résultats d’une expérience suggérant que c’était possible. Des scientifiques de l'Université Thomas Jefferson de Philadelphie ont testé des paires de jumeaux identiques en insérant des électrodes sous leur cuir chevelu pour mesurer leurs ondes cérébrales – une technique appelée électroencéphalographie. Les chercheurs ont rapporté que lorsque les jumeaux restaient dans des pièces séparées, si l’un d’eux fermait les yeux, les ondes cérébrales des deux reflétaient le même mouvement. Les pointes sur l'électroencéphalographe de l'un des jumeaux reflétaient celles de l'autre. L’étude était cependant erronée sur le plan méthodologique. Les chercheurs avaient testé plusieurs paires de jumeaux mais n'avaient publié les résultats que pour la paire dans laquelle ils avaient observé une synchronie. Voilà qui n’a pas aidé ce domaine universitaire en plein essor. Pendant des décennies, la recherche sur la synchronisation intercérébrale fut donc reléguée dans la catégorie des " étranges bizarreries paranormales " et n’a pas été prise au sérieux.

La réputation du domaine a commencé à changer au début des années 2000 avec la popularisation de l' hyperscanning, une technique qui permet aux scientifiques de scanner simultanément le cerveau de plusieurs personnes en interaction. Au début, cela impliquait de demander à des paires de volontaires de s'allonger dans des appareils d'IRMf séparés, ce qui limitait considérablement les types d'études que les scientifiques pouvaient réaliser. Les chercheurs ont finalement pu utiliser la spectroscopie fonctionnelle proche infrarouge (fNIRS), qui mesure l'activité des neurones dans les couches externes du cortex. Le grand avantage de cette technologie est sa facilité d'utilisation : les volontaires peuvent jouer de la batterie ou étudier dans une salle de classe tout en portant des bonnets fNIRS, qui ressemblent à des bonnets de bain avec une multitude de câbles qui dépassent.

Lorsque plusieurs personnes  interagissent tout en portant des casquettes fNIRS, les scientifiques ont commencé à découvrir une activité interneurale synchronisée dans des régions du cerveau, qui variaient selon la tâche et la configuration de l'étude. Ils ont également observé des ondes cérébrales, qui représentent des schémas électriques dans le déclenchement neuronal, se synchronisant sur plusieurs fréquences. Sur une lecture électroencéphalographique de deux cerveaux synchronisés, les lignes représentant l'activité neuronale de chaque personne fluctuent ensemble : chaque fois que l'une monte ou descend, l'autre fait de même, bien que parfois avec un décalage dans le temps. Parfois, des ondes cérébrales apparaissent dans des images en miroir – lorsque celles d’une personne montent, celles de l’autre descendent en même temps et avec une ampleur similaire – ce que certains chercheurs considèrent également comme une forme de synchronie.

Avec de nouveaux outils, il est devenu de plus en plus clair que la synchronisation inter-cerveau n’était ni un charabia métaphysique ni le produit de recherches erronées. "Le signal est définitivement là", a déclaré Antonia Hamilton , neuroscientifique sociale à l'University College de Londres. Ce qui s'est avéré plus difficile à comprendre, c'est comment deux cerveaux indépendants, dans deux corps distincts, pouvaient montrer une activité similaire dans l'espace. Maintenant, dit Hamilton, la grande question est : " Qu’est-ce que cela nous raconte ? "

La recette de la synchronisation

Novembre est fasciné depuis longtemps par la manière dont les humains se coordonnent pour atteindre des objectifs communs. Comment les musiciens – les pianistes en duo, par exemple – collaborent-ils si bien ? Pourtant, c'est en pensant aux animaux, comme les lucioles synchronisant leurs flashs, qu'il s'est mis sur la voie de l'étude des ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau.

Étant donné que la synchronie est " si répandue parmi tant d’espèces différentes ", se souvient-il, " je me suis dit : OK, alors il pourrait y avoir un moyen très simple de l’expliquer. "

Novembre et ses collègues ont mis en place une expérience, publiée l'été dernier , dans laquelle des paires de volontaires ne faisaient que s'asseoir l'un en face de l'autre tandis qu'un équipement photographique suivait les mouvements de leurs yeux, de leur visage et de leur corps. Parfois, les volontaires pouvaient se voir ; à d'autres moments, ils étaient séparés par une cloison. Les chercheurs ont découvert que dès que les volontaires se regardaient dans les yeux, leurs ondes cérébrales se synchronisaient instantanément. Le sourire s’est avéré encore plus puissant pour aligner les ondes cérébrales.

" Il y a quelque chose de spontané dans la synchronisation", a déclaré Novembre.

Le mouvement est également lié à l’activité synchronisée des ondes cérébrales. Dans l'étude de Novembre, lorsque les gens bougeaient leur corps de manière synchronisée – si, par exemple, l'un levait la main et que l'autre faisait de même – leur activité neuronale correspondait, avec un léger décalage. Cependant, la synchronisation intercérébrale va au-delà de la simple reproduction des mouvements physiques. Dans une étude publiée l'automne dernier sur des pianistes jouant en duo, une rupture de la synchronisation comportementale n'a pas provoqué la désynchronisation des deux cerveaux.

Un autre ingrédient important de la synchronisation neuronale "face à face" semble être la prédiction mutuelle : anticiper les réponses et les comportements d'une autre personne. Chaque personne " bouge ses mains, son visage ou son corps, ou parle ", a expliqué Hamilton, " et réagit également aux actions de l'autre personne ". Par exemple, lorsque les gens jouaient au jeu de cartes italien Tressette, l'activité neuronale des partenaires se synchronisait, mais le cerveau de leurs adversaires ne s'alignait pas avec eux.

Le partage d’objectifs et l’attention commune semblent souvent cruciaux pour la synchronisation inter-cerveau. Dans une expérience menée en Chine, des groupes de trois personnes ont dû coopérer pour résoudre un problème. Se présenta un problème : l'un des membres de l'équipe était un chercheur qui faisait seulement semblant de s'engager dans la tâche, hochant la tête et commentant lorsque c'était approprié, mais ne se souciant pas vraiment du résultat. Son cerveau ne se synchronisait pas avec celui des véritables membres de l'équipe.

Cependant, certains critiques affirment que l’apparition d’une activité cérébrale synchronisée n’est pas la preuve d’une quelconque connexion, mais peut plutôt s’expliquer par la réaction des personnes à un environnement partagé. " Imaginez deux personnes écoutant la même station de radio dans deux pièces différentes ", a écrit Clay Holroyd, neuroscientifique cognitif à l'Université de Gand en Belgique qui n'étudie pas la synchronisation intercérébrale, dans un article de 2022 . "La synchronisation inter-cerveau pourrait augmenter pendant les chansons qu'ils apprécient  ensemble par rapport aux chansons qu'ils trouvent tous deux ennuyeuses, mais cela ne serait pas une conséquence d'un couplage direct de cerveau à cerveau."

Pour tester cette critique, des scientifiques de l'Université de Pittsburgh et de l'Université Temple ont conçu une expérience dans laquelle les participants travaillaient différemment sur une tâche ciblée : terminer un puzzle . Les volontaires ont soit assemblé un puzzle en collaboration, soit travaillé sur des puzzles identiques séparément, côte à côte. Même s’il existait une certaine synchronisation interneurale entre les chercheurs travaillant de manière indépendante, elle était bien plus importante chez ceux qui collaboraient.

Pour Novembre, ces découvertes et d’autres similaires suggèrent que la synchronisation intercérébrale est plus qu’un artefact environnemental. "Tant que vous mesurerez le cerveau lors d'une interaction sociale, vous devrez toujours faire face à ce problème", a-t-il déclaré. "Les cerveaux en interaction sociale seront exposés à des informations similaires."

(Photo : La Mutual Wave Machine, qui a fait le tour des villes du monde entier de 2013 à 2019, permet aux passants d'explorer la synchronisation intercérébrale par paires tout en générant des données pour la recherche en neurosciences.)

À moins qu’ils ne soient à des endroits différents, bien sûr. Pendant la pandémie, les chercheurs se sont intéressés à comprendre comment la synchronisation intercérébrale pourrait changer lorsque les gens parlent face à face par vidéo. Dans une étude, publiée fin 2022 , Dumas et ses collègues ont mesuré l'activité cérébrale des mères et de leurs préadolescents lorsqu'ils communiquaient par vidéo en ligne. Les cerveaux des couples étaient à peine synchronisés, bien moins que lorsqu'ils parlaient en vrai. Une telle mauvaise synchronisation inter-cerveau en ligne pourrait aider à expliquer pourquoi les réunions Zoom ont tendance à être si fatigantes, selon les auteurs de l'étude.

"Il manque beaucoup de choses dans un appel Zoom par rapport à une interaction en face à face", a déclaré Hamilton, qui n'a pas participé à la recherche. " Votre contact visuel est un peu différent parce que le positionnement de la caméra est incorrect. Plus important encore, votre attention commune est différente."

Identifier les ingrédients nécessaires à l'apparition de la synchronisation inter-cerveau – qu'il s'agisse d'un contact visuel, d'un sourire ou du partage d'un objectif – pourrait nous aider à mieux profiter des avantages de la synchronisation avec les autres. Lorsque nous sommes sur la même longueur d’onde, les choses deviennent tout simplement plus faciles.

Avantages émergents

La neuroscientifique cognitive Suzanne Dikker aime exprimer son côté créatif en utilisant l'art pour étudier le fonctionnement du cerveau humain. Pour capturer la notion insaisissable d’être sur la même longueur d’onde, elle et ses collègues ont créé la Mutual Wave Machine : mi-installation artistique, mi-expérience neurologique. Entre 2013 et 2019, les passants de diverses villes du monde – Madrid, New York, Toronto, Athènes, Moscou et autres – ont pu faire équipe avec une autre personne pour explorer la synchronisation interneurale. Ils sont assis dans deux structures en forme de coquille se faisant face tout en portant un casque électroencéphalographe pour mesurer leur activité cérébrale. Pendant qu’ils interagissent pendant 10 minutes, les coquilles s’éclairent avec des projections visuelles qui servaient de neurofeedback : plus les projections sont lumineuses, plus leurs ondes cérébrales sont couplées. Cependant, certaines paires n'étaient pas informées que la luminosité des projections reflétait leur niveau de synchronisation, tandis que d'autres voyaient de fausses projections.

Lorsque Dikker et ses collègues ont analysé les résultats, publiés en 2021, ils ont découvert que les couples qui savaient qu'ils voyaient du neurofeedback se synchronisaient davantage avec le temps – un effet motivé par leur motivation à rester concentrés sur leur partenaire, ont expliqué les chercheurs. Plus important encore, leur synchronisation accrue a augmenté le sentiment de connexion sociale entre les deux. Il est apparu qu’être sur la même longueur d’onde cérébrale pourrait aider à établir des relations.

Dikker a également étudié cette idée dans un cadre moins artistique : la salle de classe. Dans une salle de classe de fortune dans un laboratoire, un professeur de sciences du secondaire encadrait des groupes de quatre élèves maximum pendant que Dikker et ses collègues enregistraient leur activité cérébrale. Dans une étude publiée sur le serveur de prépublication biorxiv.org en 2019, les chercheurs ont rapporté que plus les cerveaux des étudiants et de l'enseignant étaient synchronisés, plus les étudiants retenaient le matériel lorsqu'ils étaient testés une semaine plus tard. Une analyse de 2022 portant sur 16 études a confirmé que la synchronisation intercérébrale est effectivement liée à un meilleur apprentissage.

" La personne qui prête le plus d'attention ou qui s'accroche le mieux au signal de l'orateur sera également la plus synchronisée avec d'autres personnes qui accordent également la plus grande attention à ce que dit l'orateur ", a déclaré Dikker.

Ce n'est pas seulement l'apprentissage qui semble stimulé lorsque nos cerveaux sont synchronisés, mais également les performances et la coopération de l'équipe. Dans une autre étude réalisée par Dikker et ses collègues, des groupes de quatre personnes ont réfléchi à des utilisations créatives d'une brique ou classé des éléments essentiels pour survivre à un accident d'avion. Les résultats ont montré que plus leurs ondes cérébrales étaient synchronisées, mieux ils effectuaient ces tâches en groupe. Entre-temps, d'autres études ont montré que les équipes neuronales synchronisées non seulement communiquent mieux, mais surpassent également les autres dans les activités créatives telles que l'interprétation de la poésie .

Alors que de nombreuses études ont établi un lien entre la synchronisation intercérébrale et un meilleur apprentissage et de meilleures performances, la question reste de savoir si la synchronisation entraîne réellement de telles améliorations. Serait-ce plutôt une mesure d’engagement ? "Les enfants qui prêtent attention à l'enseignant feront preuve d'une plus grande synchronisation avec cet enseignant parce qu'ils sont plus engagés", a déclaré Holroyd. "Mais cela ne signifie pas que les processus synchrones contribuent réellement d'une manière ou d'une autre à l'interaction et à l'apprentissage."

Pourtant, les expériences sur les animaux suggèrent que la synchronisation neuronale peut effectivement conduire à des changements de comportement. Lorsque l’activité neuronale des souris était mesurée en leur faisant porter de minuscules capteurs en forme de chapeau haut de forme, par exemple, la synchronisation inter-cerveau prédisait si et comment les animaux interagiraient dans le futur. "C'est une preuve assez solide qu'il existe une relation causale entre les deux", a déclaré Novembre.

Chez l’homme, les preuves les plus solides proviennent d’expériences utilisant la stimulation électrique du cerveau pour générer une synchronisation interneurale. Une fois les électrodes placées sur le cuir chevelu des personnes, des courants électriques peuvent passer entre les électrodes pour synchroniser l’activité neuronale du cerveau des personnes. En 2017, Novembre et son équipe ont réalisé la première de ces expériences. Les résultats suggèrent que la synchronisation des ondes cérébrales dans la bande bêta, liée aux fonctions motrices, améliore la capacité des participants à synchroniser les mouvements de leur corps – dans ce cas, en frappant un rythme avec leurs doigts.

Plusieurs études ont récemment reproduit les conclusions de Novembre. Fin 2023, des chercheurs ont découvert qu'une fois les ondes cérébrales synchronisées par stimulation électrique, leur capacité à coopérer dans un jeu informatique simple s'améliorait considérablement. Et l'été dernier d'autres scientifiques ont montré qu'une fois que deux cerveaux sont synchronisés, les gens parviennent mieux à transférer des informations et à se comprendre.

La science est nouvelle, donc le jury ne sait toujours pas s'il existe un véritable lien de causalité entre la synchronie et le comportement humain coopératif. Malgré cela, la science de la synchronisation neuronale nous montre déjà à quel point nous bénéficions lorsque nous faisons les choses en synchronisation avec les autres. Sur le plan biologique, nous sommes programmés pour nous connecter.


Auteur: Internet

Info: https://www.quantamagazine.org/ - Marta Zaraska, 28 mars 2024

[ intelligence collective ] [ manipulation du public ] [ collectives réverbérations ] [ implication ] [ rapports humains ] [ transe ] [ attention partagée ] [ murmurations ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

dichotomie

Un nouvel opus magnum postule l'existence d'un lien mathématique caché, semblable à la connexion entre l'électricité et le magnétisme.

En 2018, alors qu'il s'apprêtait à recevoir la médaille Fields, la plus haute distinction en mathématiques, Akshay Venkatesh avait un morceau de papier dans sa poche. Il y avait inscrit un tableau d'expressions mathématiques qui, depuis des siècles, jouent un rôle clé dans la théorie des nombres.

Bien que ces expressions aient occupé une place prépondérante dans les recherches de Venkatesh au cours de la dernière décennie, il les gardait sur lui non pas comme un souvenir de ce qu'il avait accompli, mais comme un rappel de quelque chose qu'il ne comprenait toujours pas.

Les colonnes du tableau étaient remplies d'expressions mathématiques à l'allure énigmatique : À l'extrême gauche se trouvaient des objets appelés périodes, et à droite, des objets appelés fonctions L, qui pourraient être la clé pour répondre à certaines des questions les plus importantes des mathématiques modernes. Le tableau suggérait une sorte de relation entre les deux. Dans un livre publié en 2012 avec Yiannis Sakellaridis, de l'université Johns Hopkins, Venkatesh avait trouvé un sens à cette relation : Si on leur donne une période, ils peuvent déterminer s'il existe une fonction L associée.

Mais ils ne pouvaient pas encore comprendre la relation inverse. Il était impossible de prédire si une fonction L donnée avait une période correspondante. Lorsqu'ils ont examiné les fonctions L, ils ont surtout constaté un certain désordre.

C'est pourquoi Venkatesh a gardé le papier dans sa poche. Il espérait que s'il fixait la liste suffisamment longtemps, les traits communs de cette collection apparemment aléatoire de fonctions L lui apparaîtraient clairement. Au bout d'un an, ce n'était pas le cas.

"Je n'arrivais pas à comprendre le principe qui sous-tendait ce tableau", a-t-il déclaré.

2018 fut une année importante pour Venkatesh à plus d'un titre. En plus de recevoir la médaille Fields, il a également quitté l'université de Stanford, où il se trouvait depuis une dizaine d'années, pour rejoindre l'Institute for Advanced Study à Princeton, dans le New Jersey.

Sakellaridis et lui ont également commencé à discuter avec David Ben-Zvi, un mathématicien de l'université du Texas, à Austin, qui passait le semestre à l'institut. Ben-Zvi avait construit sa carrière dans un domaine parallèle des mathématiques, en étudiant le même type de questions sur les nombres que Sakellaridis et Venkatesh, mais d'un point de vue géométrique. Lorsqu'il a entendu Venkatesh parler de cette table mystérieuse qu'il emportait partout avec lui, Ben-Zvi a presque immédiatement commencé à voir une nouvelle façon de faire communiquer les périodes et les fonctions L entre elles.

Ce moment de reconnaissance a été à l'origine d'une collaboration de plusieurs années qui s'est concrétisée en juillet dernier, lorsque Ben-Zvi, Sakellaridis et Venkatesh ont publié un manuscrit de 451 pages. L'article crée une traduction dans les deux sens entre les périodes et les fonctions L en refondant les périodes et les fonctions L en termes d'une paire d'espaces géométriques utilisés pour étudier des questions fondamentales en physique.

Ce faisant, il réalise un rêve de longue date dans le cadre d'une vaste initiative de recherche en mathématiques appelée "programme Langlands". Les mathématiciens qui travaillent sur des questions dans le cadre de ce programme cherchent à jeter des ponts entre des domaines disparates pour montrer comment des formes avancées de calcul (d'où proviennent les périodes) peuvent être utilisées pour répondre à des questions ouvertes fondamentales en théorie des nombres (d'où proviennent les fonctions L), ou comment la géométrie peut être utilisée pour répondre à des questions fondamentales en arithmétique.

Ils espèrent qu'une fois ces ponts établis, les techniques pourront être portées d'un domaine mathématique à un autre afin de répondre à des questions importantes qui semblent insolubles dans leur propre domaine.

Le nouvel article est l'un des premiers à relier les aspects géométriques et arithmétiques du programme, qui, pendant des décennies, ont progressé de manière largement isolée. En créant ce lien et en élargissant effectivement le champ d'application du programme Langlands tel qu'il a été conçu à l'origine, le nouvel article fournit un cadre conceptuel unique pour une multitude de connexions mathématiques.

"Il unifie un grand nombre de phénomènes disparates, ce qui réjouit toujours les mathématiciens", a déclaré Minhyong Kim, directeur du Centre international des sciences mathématiques d'Édimbourg, en Écosse.

Connecter eulement  

Le programme Langlands a été lancé par Robert Langlands, aujourd'hui professeur émérite à l'Institute for Advanced Study. Il a débuté en 1967 par une lettre manuscrite de 17 pages adressée par Langlands, alors jeune professeur à l'université de Princeton, à Andre Weil, l'un des mathématiciens les plus connus au monde. Langlands proposait d'associer des objets importants du calcul, appelés formes automorphes, à des objets de l'algèbre, appelés groupes de Galois. Les formes automorphes sont une généralisation des fonctions périodiques telles que le sinus en trigonométrie, dont les sorties se répètent à l'infini lorsque les entrées augmentent. Les groupes de Galois sont des objets mathématiques qui décrivent comment des entités appelées champs (comme les nombres réels ou rationnels) changent lorsqu'on leur ajoute de nouveaux éléments.

Les paires comme celle entre les formes automorphes et les groupes de Galois sont appelées dualités. Elles suggèrent que différentes classes d'objets se reflètent l'une l'autre, ce qui permet aux mathématiciens d'étudier l'une en fonction de l'autre.

Des générations de mathématiciens se sont efforcées de prouver l'existence de la dualité supposée de Langlands. Bien qu'ils n'aient réussi à l'établir que pour des cas limités, même ces cas limités ont souvent donné des résultats spectaculaires. Par exemple, en 1994, lorsque Andrew Wiles a démontré que la dualité proposée par Langlands était valable pour une classe particulière d'exemples, il a prouvé le dernier théorème de Fermat, l'un des résultats les plus célèbres de l'histoire des mathématiques.

En poursuivant le programme de Langlands, les mathématiciens l'ont également élargi dans de nombreuses directions.

L'une de ces directions a été l'étude de dualités entre des objets arithmétiques apparentés, mais distincts, de ceux qui intéressaient Langlands. Dans leur livre de 2012, Sakellaridis et Venkatesh ont étudié une dualité entre les périodes, qui sont étroitement liées aux formes automorphes, et les fonctions L, qui sont des sommes infinies attachées aux groupes de Galois. D'un point de vue mathématique, les périodes et les L-fonctions sont des objets d'espèces totalement différentes, sans traits communs évidents.

Les périodes sont devenues des objets d'intérêt mathématique dans les travaux d'Erich Hecke dans les années 1930.

Les fonctions L sont des sommes infinies utilisées depuis les travaux de Leonhard Euler au milieu du 18e siècle pour étudier des questions fondamentales sur les nombres. La fonction L la plus célèbre, la fonction zêta de Riemann, est au cœur de l'hypothèse de Riemann, qui peut être considérée comme une prédiction sur la répartition des nombres premiers. L'hypothèse de Riemann est sans doute le plus important problème non résolu en mathématiques.

Langlands était conscient des liens possibles entre les fonctions L et les périodes, mais il les considérait comme une question secondaire dans son projet de relier différents domaines des mathématiques.

"Dans un article, [Langlands] considérait que l'étude des périodes et des fonctions L ne valait pas la peine d'être étudiée", a déclaré M. Sakellaridis.

Bienvenue dans la machine

Bien que Robert Langlands n'ait pas insisté sur le lien entre les périodes et les fonctions L, Sakellaridis et Venkatesh les considéraient comme essentiels pour élargir et approfondir les liens entre des domaines mathématiques apparemment éloignés, comme l'avait proposé Langlands.

Dans leur livre de 2012, ils ont développé une sorte de machine qui prend une période en entrée, effectue un long calcul et produit une fonction L. Cependant, toutes les périodes ne produisent pas des L-fonctions correspondantes, et la principale avancée théorique de leur livre était de comprendre lesquelles le font. (Ce travail s'appuie sur des travaux antérieurs d'Atsushi Ichino et de Tamotsu Ikeda à l'université de Kyoto).

Mais leur approche avait deux limites. Premièrement, elle n'explique pas pourquoi une période donnée produit une fonction L donnée. La machine qui transforme l'une en l'autre était une boîte noire. C'était comme s'ils avaient construit un distributeur automatique qui produisait souvent de manière fiable quelque chose à manger chaque fois que vous mettiez de l'argent, sauf qu'il était impossible de savoir ce que ce serait à l'avance, ou si la machine mangerait l'argent sans distribuer d'en-cas.

Dans tous les cas, vous deviez déposer votre argent - votre période - puis "faire un long calcul et voir quelle fonction L vous obteniez parmi un zoo de fonctions", a déclaré M. Venkatesh.

La deuxième chose qu'ils n'ont pas réussi à faire dans leur livre, c'est de comprendre quelles fonctions L ont des périodes associées. Certaines en ont. D'autres non. Ils n'ont pas réussi à comprendre pourquoi.

Ils ont continué à travailler après la publication du livre, en essayant de comprendre pourquoi la connexion fonctionnait et comment faire fonctionner la machine dans les deux sens - non seulement en obtenant une fonction L à partir d'une période, mais aussi dans l'autre sens.

En d'autres termes, ils voulaient savoir que s'ils mettaient 1,50 $ dans le distributeur automatique, cela signifiait qu'ils allaient recevoir un sachet de Cheetos. De plus, ils voulaient pouvoir dire que s'ils tenaient un sachet de Cheetos, cela signifiait qu'ils avaient mis 1,50 $ dans le distributeur automatique.

Parce qu'elles relient des objets qui, à première vue, n'ont rien en commun, les dualités sont puissantes. Vous pourriez fixer un alignement d'objets mathématiques pendant une éternité sans percevoir la correspondance entre les fonctions L et les périodes.

"La manière dont elles sont définies et données, cette période et cette fonction L, n'a rien d'évident", explique Wee Teck Gan, de l'université nationale de Singapour.

Pour traduire des choses superficiellement incommensurables, il faut trouver un terrain d'entente. L'un des moyens d'y parvenir pour des objets tels que les fonctions L et les périodes, qui trouvent leur origine dans la théorie des nombres, est de les associer à des objets géométriques.

Pour prendre un exemple ludique, imaginez que vous avez un triangle. Mesurez la longueur de chaque côté et vous obtiendrez un ensemble de nombres qui vous indiquera comment écrire une fonction L. Prenez un autre triangle et, au lieu de mesurer les longueurs, regardez les trois angles intérieurs - vous pouvez utiliser ces angles pour définir une période. Ainsi, au lieu de comparer directement les fonctions L et les périodes, vous pouvez comparer les triangles qui leur sont associés. On peut dire que les triangles "indexent" les L-fonctions et les périodes - si une période correspond à un triangle avec certains angles, alors les longueurs de ce triangle correspondent à une L-fonction correspondante.

Si une période correspond à un triangle avec certains angles, les longueurs de ce triangle correspondent à une fonction L. "Cette période et cette fonction L, il n'y a pas de relation évidente dans la façon dont elles vous sont données. L'idée était donc que si vous pouviez comprendre chacune d'entre elles d'une autre manière, d'une manière différente, vous pourriez découvrir qu'elles sont très comparables", a déclaré M. Gan.

Dans leur ouvrage de 2012, Sakellaridis et Venkatesh ont réalisé une partie de cette traduction. Ils ont trouvé un moyen satisfaisant d'indexer des périodes en utilisant un certain type d'objet géométrique. Mais ils n'ont pas pu trouver une façon similaire de penser aux fonctions L.

Ben-Zvi pensait pouvoir le faire.

Le double marteau de Maxwell

Alors que les travaux de Sakellaridis et Venkatesh se situaient légèrement à côté de la vision de Langlands, Ben-Zvi travaillait dans un domaine des mathématiques qui se situait dans un univers totalement différent - une version géométrique du programme de Langlands.

Le programme géométrique de Langlands a débuté au début des années 1980, lorsque Vladimir Drinfeld et Alexander Beilinson ont suggéré une sorte de dualité de second ordre. Drinfeld et Beilinson ont proposé que la dualité de Langlands entre les groupes de Galois et les formes automorphes puisse être interprétée comme une dualité analogue entre deux types d'objets géométriques. Mais lorsque Ben-Zvi a commencé à travailler dans le programme géométrique de Langlands en tant qu'étudiant diplômé à l'université de Harvard dans les années 1990, le lien entre le programme géométrique et le programme original de Langlands était quelque peu ambitieux.

"Lorsque le programme géométrique de Langlands a été introduit pour la première fois, il s'agissait d'une séquence d'étapes psychologiques pour passer du programme original de Langlands à cet énoncé géométrique qui semblait être un tout autre genre d'animal", a déclaré M. Ben-Zvi.

En 2018, lorsque M. Ben-Zvi a passé une année sabbatique à l'Institute for Advanced Study, les deux parties se sont rapprochées, notamment dans les travaux publiés la même année par Vincent Lafforgue, chercheur à l'Institut Fourier de Grenoble. Pourtant, M. Ben-Zvi prévoyait d'utiliser son séjour sabbatique de 2018 à l'IAS pour effectuer des recherches sur l'aspect géométrique du programme Langlands. Son plan a été perturbé lorsqu'il est allé écouter un exposé de Venkatesh.

"Mon fils et la fille d'Akshay étaient des camarades de jeu, et nous étions amis sur le plan social, et j'ai pensé que je devrais assister à certaines des conférences qu'Akshay a données au début du semestre", a déclaré Ben-Zvi.

Lors de l'une de ces premières conférences, Venkatesh a expliqué qu'il fallait trouver un type d'objet géométrique capable d'indexer à la fois les périodes et les fonctions L, et il a décrit certains de ses récents progrès dans cette direction. Il s'agissait d'essayer d'utiliser des espaces géométriques issus d'un domaine des mathématiques appelé géométrie symplectique, que Ben-Zvi connaissait bien pour avoir travaillé dans le cadre du programme géométrique de Langlands.

"Akshay et Yiannis ont poussé dans une direction où ils ont commencé à voir des choses dans la géométrie symplectique, et cela m'a fait penser à plusieurs choses", a déclaré M. Ben-Zvi.

L'étape suivante est venue de la physique.

Pendant des décennies, les physiciens et les mathématiciens ont utilisé les dualités pour trouver de nouvelles descriptions du fonctionnement des forces de la nature. Le premier exemple, et le plus célèbre, est celui des équations de Maxwell, écrites pour la première fois à la fin du XIXe siècle, qui relient les champs électriques et magnétiques. Ces équations décrivent comment un champ électrique changeant crée un champ magnétique, et comment un champ magnétique changeant crée à son tour un champ électrique. Ils peuvent être décrits conjointement comme un champ électromagnétique unique. Dans le vide, "ces équations présentent une merveilleuse symétrie", a déclaré M. Ben-Zvi. Mathématiquement, l'électricité et le magnétisme peuvent changer de place sans modifier le comportement du champ électromagnétique commun.

Parfois, les chercheurs s'inspirent de la physique pour prouver des résultats purement mathématiques. Par exemple, dans un article de 2008, les physiciens Davide Gaiotto et Edward Witten ont montré comment les espaces géométriques liés aux théories quantiques des champs de l'électromagnétisme s'intègrent dans le programme géométrique de Langlands. Ces espaces sont présentés par paires, une pour chaque côté de la dualité électromagnétique : les espaces G hamiltoniens et leur dual : Les espaces Ğ hamiltoniens (prononcés espaces G-hat).

Ben-Zvi avait pris connaissance de l'article de Gaiotto-Witten lors de sa publication, et il avait utilisé le cadre physique qu'il fournissait pour réfléchir à des questions relatives à la géométrie de Langlands. Mais ce travail - sans parler de l'article de physique qui l'a motivé - n'avait aucun lien avec le programme original de Langlands.

Jusqu'à ce que Ben-Zvi se retrouve dans le public de l'IAS en train d'écouter Venkatesh. Il a entendu Venkatesh expliquer qu'à la suite de leur livre de 2012, lui et Sakellaridis en étaient venus à penser que la bonne façon géométrique d'envisager les périodes était en termes d'espaces Hamiltoniens G. Mais Venkatesh a admis qu'ils ne savaient pas quel type d'objet géométrique associer aux L-fonctions. 

Cela a mis la puce à l'oreille de Ben-Zvi. Une fois que Sakellaridis et Venkatesh ont relié les périodes aux espaces G hamiltoniens, les objets géométriques duaux des fonctions L sont devenus immédiatement clairs : les espaces Ğ dont Gaiotto et Witten avaient dit qu'ils étaient les duaux des espaces G. Pour Ben-Zvi, toutes ces dualités, entre l'arithmétique, la géométrie et la physique, semblaient converger. Même s'il ne comprenait pas toute la théorie des nombres, il était convaincu que tout cela faisait partie d'une "grande et belle image".

To G or Not to Ğ

Au printemps 2018, Ben-Zvi, Sakellaridis et Venkatesh se sont rencontrés régulièrement au restaurant du campus de l'Institute for Advanced Study ; pendant quelques mois, ils ont cherché à savoir comment interpréter les données extraites des L-fonctions comme une recette pour construire des Ğ-espaces hamiltoniens. Dans l'image qu'ils ont établie, la dualité entre les périodes et les fonctions L se traduit par une dualité géométrique qui prend tout son sens dans le programme géométrique de Langlands et trouve son origine dans la dualité entre l'électricité et le magnétisme. La physique et l'arithmétique deviennent des échos l'une de l'autre, d'une manière qui se répercute sur l'ensemble du programme de Langlands.

"On pourrait dire que le cadre original de Langlands est maintenant un cas particulier de ce nouveau cadre", a déclaré M. Gan.

En unifiant des phénomènes disparates, les trois mathématiciens ont apporté une partie de l'ordre intrinsèque à la relation entre l'électricité et le magnétisme à la relation entre les périodes et les fonctions L.

"L'interprétation physique de la correspondance géométrique de Langlands la rend beaucoup plus naturelle ; elle s'inscrit dans cette image générale des dualités", a déclaré Kim. "D'une certaine manière, ce que [ce nouveau travail] fait est un moyen d'interpréter la correspondance arithmétique en utilisant le même type de langage.

Le travail a ses limites. Les trois mathématiciens prouvent en particulier  la dualité entre les périodes et les fonctions L sur des systèmes de nombres qui apparaissent en géométrie, appelés champs de fonctions, plutôt que sur des champs de nombres - comme les nombres réels - qui sont le véritable domaine d'application du programme de Langlands.

"L'image de base est censée s'appliquer aux corps de nombres. Je pense que tout cela sera finalement développé pour les corps de nombres", a déclaré M. Venkatesh.

Même sur les champs de fonctions, le travail met de l'ordre dans la relation entre les périodes et les fonctions L. Pendant les mois où Venkatesh a transporté un imprimé dans sa poche, lui et Sakellaridis n'avaient aucune idée de la raison pour laquelle ces fonctions L devraient être celles qui sont associées aux périodes. Aujourd'hui, la relation est logique dans les deux sens. Ils peuvent la traduire librement en utilisant un langage commun.

"J'ai connu toutes ces périodes et j'ai soudain appris que je pouvais retourner chacune d'entre elles et qu'elle se transformait en une autre que je connaissais également. C'est une prise de conscience très choquante", a déclaré M. Venkatesh.



 

Auteur: Internet

Info: https://www.quantamagazine.org. Kevin Hartnett, contributing Writer, October 12, 2023 https://www.quantamagazine.org/echoes-of-electromagnetism-found-in-number-theory-20231012/?mc_cid=cc4eb576af&mc_eid=78bedba296

[ fonction L p-adique ] [ fonction périodique ]

 

Commentaires: 0

Ajouté à la BD par miguel