Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 55
Temps de recherche: 0.0638s

xénolinguistique

Q - L'humanité a-t-elle prévu un protocole "premier contact" ? 

R - Je ne sais pas si les États ont prévu quoi que ce soit. Ce que je sais, c'est que je ne connais aucun collègue linguiste à qui on a demandé de préparer quelque chose. Des réflexions ont été engagées au sein du programme SETI - qui vise à détecter la présence de civilisations extraterrestres avancées dans d'autres systèmes solaires -, mais cela concerne la communication à distance. Si la communication s'effectue face à face, les réponses se trouvent dans la linguistique de terrain. 

R - Dans ce cas, il n'y a pas de document décrivant des "étapes magiques". Il existe néanmoins un cadre de travail : quand des linguistes découvrent un peuple dont le langage est totalement inconnu, ils commencent par vivre avec ses membres, observer leur comportement, les écouter, et apprendre leur culture. Aujourd'hui, ils utilisent généralement un enregistreur pour détecter les variations parfois subtiles de la langue et retranscrivent les sons grâce à un alphabet adapté, à l'image de l'Alphabet Phonétique International. Surtout, ils décrivent le cadre dans lequel les phrases sont prononcées : si elles sont accompagnées d'un geste des mains ou des yeux ou l'utilisation d'un outil. 

Q - Quels seraient les principaux obstacles empêchant la communication entre l'humanité et des extraterrestres ? 

R - Les auteurs de science-fiction ont à peu près tout imaginé : des extraterrestres communiquant avec des motifs, des couleurs, des peintures, des tapotements, des vibrations voire même par des odeurs, ou des champs magnétiques, ces deux derniers modes étant particulièrement compliqués. Le jour du premier contact, les scientifiques installeront probablement toutes sortes de détecteurs : de vibrations et d'ondes dans toutes les gammes de fréquences imaginables, olfactifs, de mouvements hyper sensibles, etc.  

Découvrir le type de médium utilisé pour communiquer ne devrait pas être le plus dur. Ensuite, il s'agira de décrypter le contenu. Pas facile quand on part de rien, que l'on n'a pas de dictionnaire, de corpus ou de référence. Échanger un premier mot qui a du sens peut déjà se révéler complexe, mais prononcer une phrase complète, requiert de connaître la culture et les coutumes du nouveau peuple. 

Q - Vous écrivez qu'il est important de maîtriser le langage pour mieux communiquer entre nous et avec d'autres. Une promotion pour la linguistique ? 

R - Oui, car je pense qu'on ne met pas suffisamment en avant les langues et leurs complexités dans le monde actuel. Par exemple, lorsque l'on parle de sciences à la télévision, ce sont toujours les sciences dures : chimie, mathématiques, physique. On évoque trop rarement les sciences humaines comme la linguistique, qui sont pourtant très importantes.  

C'est pareil pour la science-fiction, les romans donnés aux jeunes sont souvent sur les robots, l'exploration spatiale, beaucoup moins sur les langues. Pourtant, il existe des tas de livres de SF qui sont très importants du point de vue linguistique. La sortie de 'l'ovni' Premier Contact au cinéma m'a motivé à écrire ce livre. Je me suis dit : "Ah ! Enfin un film d'extraterrestres dans lequel on parle de langage", ce qui est tout même plus intéressant que les films de guerre type Independance Day, à la fois désespérément vide et remplis de clichés éculés. 

Q - L'apprentissage de la langue d'une civilisation extraterrestre pourrait-il nous transformer ? 

R - Je pense que c'est plutôt par l'apprentissage de leur culture ou de leurs technologies que s'opéreront des changements. On sait aujourd'hui que l'hypothèse Sapir-Whorf [qui soutient que la façon dont on perçoit le monde dépend du langage] est fausse. J'explique pourquoi dans mon livre, mais pour résumer, Sapir et son élève Whorf ont eu cette idée en étudiant les langues amérindiennes. Whorf, qui n'était pas linguiste mais ingénieur, a ensuite poussé le concept de manière peu scientifique. 

Quand nous apprenons une langue, nous apprenons de nouvelles choses sur l'autre. C'est donc un super outil pour comprendre la diversité et j'encourage à le faire, mais cela ne "recâble" pas notre cerveau. Cela ne va pas nous permettre d'avoir des visions du futur comme dans Premier Contact. En ce sens le film dérive dans la fiction, ce qui n'est pas grave puisque c'est le propre de la SF d'être un laboratoire où l'on peut aller au bout de tout, même d'une hypothèse incroyable.

Auteur: Landragin Frédéric

Info: Interviewé par Victor Garcia sur https://www.lexpress.fr/le 18 10 2018

[ astrolinguistique ] [ exo-langages ]

 

Commentaires: 0

Ajouté à la BD par miguel

épigénétique

De la biologie quantique dans la photosynthèse ? La biologie actuelle en est-elle au stade où était la physique classique avant la découverte de la physique quantique ? Certains le soupçonnent depuis quelques années, et une publication récente dans Nature Communications vient d'apporter de l'eau à leur moulin. Il y aurait bien des processus quantiques derrière l'efficacité de la photosynthèse.

(On note Ψ la fameuse fonction d'onde décrivant les amplitudes de probabilité en mécanique quantique depuis les travaux de Schrödinger sur sa célèbre équation. On a de nouvelles raisons de penser que la vie exploite les lois de la mécanique quantique pour rendre certains processus plus efficaces, en particulier la photosynthèse. © Engel Group, University of Chicago - En commentaire de la photo d'une feuille au soleil)

C'est un fait bien établi que l'existence des atomes, des molécules et des liaisons chimiques ne sont pas compréhensibles en dehors des lois de la mécanique quantique. En ce sens, la physique et la chimie d'un bloc de métal ou d'une cellule sont quantiques. Mais on sait bien que le comportement de ces objets ne manifeste pas directement la nature quantique de la matière, ils font partie du monde de la physique classique. Cependant, certains phénomènes comme la supraconductivité ou la superfluidité débordent du domaine quantique d'ordinaire réservé à la microphysique pour entrer dans le monde à notre échelle. Lorsque la nécessité de la physique quantique s'est révélée aux physiciens explorant la matière et la lumière, ce fut essentiellement avec deux phénomènes qui semblaient au départ être de simples anomalies bien localisées dans l'univers de la physique classique : le rayonnement du corps noir et l'effet photoélectrique. Nous savons aujourd'hui qu'ils étaient la pointe émergée du monde quantique et que, fondamentalement, le réel est fort différent de la vision du monde bâtie par les fondateurs de la science classique comme Galilée, Descartes et Newton.

La biologie quantique pour expliquer la photosynthèse
De nos jours, les biologistes qui réfléchissent sur le fonctionnement des cellules, de l'ADN ou des neurones considèrent que ces objets sont majoritairement décrits par les lois de la physique classique. Il n'est pas nécessaire d'utiliser l'équation de Schrödinger ou les amplitudes de probabilités qu'elle gouverne pour comprendre l'origine de la vie, les mutations, l'évolution ou l'apparition de la conscience dans un cerveau. Pourtant, ces dernières années, quelques résultats expérimentaux en biologie, notamment sur la photosynthèse, semblaient défier les lois de la physique classique.

Il était et il est encore bien trop tôt pour savoir si la photosynthèse finira par être, pour une éventuelle biologie quantique, ce que le rayonnement du corps noir a été pour la physique quantique. Toutefois, Alexandra Olaya-Castro et Edward O'Reilly, des chercheurs du célèbre University College de Londres, viennent de publier dans Nature Communications un article, également disponible en accès libre sur arxiv, dans lequel ils affirment que des macromolécules biologiques utilisent bel et bien des processus quantiques pour effectuer de la photosynthèse. Jusqu'à présent, le doute planait sur l'inadéquation des processus classiques pour décrire le comportement de chromophores attachés à des protéines qu'utilisent les cellules végétales pour capter et transporter l'énergie lumineuse.

Selon les deux physiciens, certains des états de vibrations moléculaires des chromophores facilitent le transfert d'énergie lors du processus de photosynthèse et contribuent à son efficacité. Ainsi, lorsque deux chromophores vibrent, il arrive que certaines énergies associées à ces vibrations collectives des deux molécules soient telles qu'elles correspondent à des transitions entre deux niveaux d'énergie électronique des molécules. Un phénomène de résonance se produit et un transfert d'énergie en découle entre les deux chromophores.

Distributions de probabilités quantiques négatives
Or, si le processus était purement classique, les mouvements et les positions des atomes dans les chromophores seraient toujours décrits par des distributions de probabilités positives. Alexandra Olaya-Castro et Edward O'Reilly ont découvert qu'il fallait employer des distributions négatives. C'est une signature indiscutable de l'occurrence de processus quantiques. Mieux, il s'agit dans le cas présent de la manifestation d'une superposition d'états quantiques à température ambiante assistant un transfert cohérent d'énergie. On retrouve ces vibrations collectives de macromolécules dans d'autres processus biologiques comme le transfert d'électrons dans les centres de réaction des systèmes photosynthétiques, le changement de structure d'un chromophore lors de l'absorption de photons (comme dans les phénomènes associés à la vision). Selon les chercheurs, il est donc plausible que des phénomènes quantiques assistant des processus biologiques que l'on croyait classiques soient assez répandus. Si tel est le cas, on peut s'attendre à découvrir d'autres manifestations hautement non triviales de la mécanique quantique en biologie. Cela n'aurait certainement pas surpris Werner Heisenberg, et encore moins Niels Bohr qui, il y a déjà plus de 60 ans, prédisaient que l'on pourrait bien rencontrer des limites de la physique classique avec les systèmes vivants.

Auteur: Internet

Info: https://www.futura-sciences.com/. Laurent Sacco. 20- 01-2014

[ biophysique ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

Des scientifiques affirment avoir découvert ce qui existait AVANT le début de l'univers !

Les versions non scientifiques d'une réponse ont invoqué de nombreux dieux et furent à la base de toutes les religions et de la plupart des philosophies depuis le début de l'histoire.

Aujourd'hui, une équipe de mathématiciens du Canada et d'Égypte a utilisé une théorie scientifique de pointe et une série d'équations époustouflantes pour découvrir ce qui a précédé l'univers dans lequel nous vivons.

En termes (très) simples, ils ont appliqué les théories de l'infiniment petit - le monde de la mécanique quantique - à l'ensemble de l'univers - expliqué par la théorie générale de la relativité, et ont découvert que l'univers passe fondamentalement par quatre phases différentes.

Plus important encore, ils ont découvert ce qui a précédé cet univers... un autre univers ou, plus précisément, une autre "phase cosmologique".

Bien que sa taille soit infinie, notre univers est cyclique et a toujours existé à l'un des quatre stades.

L'univers est en expansion, et cette expansion s'accélère, mais l'équipe pense que certaines modifications motivées par la mécanique quantique finiront par stopper l'expansion et ramèneront l'ensemble à un point quasi infini - à ce stade, l'univers recommencera à s'étendre.

L'article, intitulé ''Non-singular and Cyclic Universe from the Modified GUP'', écrit par Maha Salah, Fayçal Hammad, Mir Faizal, Ahmed Farag Ali, est très complexe, mais le professeur Mir Faizal en a souligné les principaux points.

Selon lui, ils ont intégré les effets de la mécanique quantique dans la cosmologie en utilisant une approche appelée GUP modifiée.

Cette approche modifie l'équation de la cosmologie d'une manière très intéressante. Elle prédit quatre phases distinctes pour notre univers - la phase actuelle de l'univers n'étant qu'une de ces phases.

Dans ce modèle cosmologique, il existe une phase antérieure au big bang, et il est possible de connaître cette phase de l'univers en étudiant la physique de la phase actuelle de notre univers.

Le professeur Mir Faizal a déclaré : "Dans notre modèle cosmologique, l'univers n'a pas commencé par un big bang : "Dans notre modèle cosmologique, l'univers n'a pas commencé par un big bang, mais il y a eu une transition d'une phase de l'univers à une autre.

"Cela est possible parce que l'univers peut exister dans quatre phases différentes, comme l'eau ordinaire peut exister dans trois phases différentes. Tout comme nous pouvons connaître les propriétés de la glace en étudiant l'eau qui s'est formée à partir d'elle, nous pouvons connaître la cosmologie d'avant le big bang en étudiant la physique de cet univers.

"En utilisant notre modèle cosmologique, nous pouvons étudier la physique de la phase cosmologique précédant le début de notre univers.

Leur modèle leur a permis d'étudier l'état de l'univers avant le Big Bang. Les équations de leur modèle prédisent que l'expansion de l'univers s'arrêtera et sera immédiatement suivie d'une phase de contraction.

Le professeur Mir a ajouté : "Lorsque les équations sont extrapolées au-delà du taux maximal de contraction, un scénario d'univers cyclique émerge. "D'autres cosmologistes ont proposé un scénario de big bang et de big crunch, mais ces modèles présentent des singularités.

"Les singularités sont néfastes en physique, car elles indiquent un endroit où les lois de la physique s'effondrent, et à ces endroits, on ne peut pas utiliser la physique pour obtenir des résultats significatifs.

"Ce nouveau modèle cosmologique élimine ces singularités. La singularité du big bang peut donc également être évitée en utilisant les corrections GUP modifiées pour la cosmologie".

Dans leur modèle cosmologique, la nature cyclique de l'univers résulte de l'incorporation d'effets quantiques dans un modèle cosmologique de l'univers.

Le professeur Faizal a expliqué que même s'il existe de nombreuses approches étonnantes de la gravité quantique, comme la théorie des cordes et la gravité quantique à boucles, le point commun de la plupart de ces approches est qu'il existe une longueur minimale en dessous de laquelle l'espace n'existe pas.

Beaucoup de ces approches prédisent également qu'il existe une énergie maximale et qu'aucun objet dans l'univers ne peut avoir une énergie supérieure à cette énergie maximale.

L'équipe de chercheurs a intégré l'effet d'une longueur minimale et d'une énergie maximale dans un modèle cosmologique, pour aboutir à un univers cyclique.

Interrogé sur les implications philosophiques, voire théologiques, de ses travaux, le professeur Mir a déclaré : "Personne ne tire d'implications philosophiques ou théologiques d'une dimension spatiale finie ou infinie, et le temps n'est qu'une dimension parmi d'autres, alors pourquoi devrait-il être traité différemment ?

"En tout état de cause, je ne crois pas en un Dieu des lacunes, le big bang étant une grande lacune, mais en un Dieu qui a rendu les mathématiques décrivant la réalité si parfaites qu'il n'y a pas de lacunes, ni aujourd'hui ni au moment du big bang.''

Le professeur Faizal a également travaillé sur le Grand collisionneur de hadrons, où il a exploré les portes d'autres univers.

 

 

Auteur: Internet

Info: https://www.thesci-universe.com/ 5,15,2023

[ hypothèse ]

 

Commentaires: 0

Ajouté à la BD par miguel

spéculations

Les expériences d'Alain Aspect ont confirmé la réalité du phénomène d'intrication quantique (expériences sur photons intriqués). Celles-ci montrent qu'au niveau quantique la notion d'espace n'a plus de sens puisque quelle que soit la "distance", l'action sur un photon A se communique instantanément à son photon intriqué B (en violation de la limite de c = vitesse de la lumière). Cette propriété explique pourquoi les mécaniciens quantiques affirment que la physique quantique est une PHYSIQUE NON LOCALE (elle exclut la réalité objective de l'espace).

Mais cela va encore plus loin: l'intrication nie aussi le temps et les schémas de causalité classique : l'action sur un photon A modifie par "rétroaction" les propriétés du photon B intriqué, dans le passé. Cela signifie que la physique quantique ne prend pas en compte le temps et les schémas de consécution de la mécanique classique (causalité présent-futur). Comment une physique qui n’intègre pas l'espace et le temps est-elle possible ?

La réponse tient en ces termes: NOUS sommes les "porteurs" de l'espace et du temps en tant que conscience, et ceux-ci n'ont aucune réalité objective. C'est là un magnifique triomphe rétrospectif de ce que Kant avait déjà affirmé au XVIIIe siècle dans La Critique de la raison pure. Mais la nouvelle physique gravit une marche de plus: outre la "conscience transcendantale" dont parlait Kant, il faut ajouter l'information, c'est-à-dire un univers d'objets mathématiques purement intelligibles qui, dans leurs rapports à la conscience, produisent le "monde phénoménal", celui que nous percevons. La "réalité perçue" est un vaste simulacre ou comme l'écrivait David Bohm, le lieu d'une fantastique "magie cosmique".

Des consciences exogènes l'ont déjà compris et utilisent leur maîtrise de l'information pour interférer avec notre monde. La science informatique, en digitalisant la matière (c'est-à-dire en remontant aux sources mathématiques de la réalité) a, sans le savoir, reproduit via la technologie de nos ordinateurs, le mode de production "phénoménal" de notre monde.

Ces indications sont en mesure, me semble-t-il, d’aider le lecteur à investir les thèses de mon ami Philippe Guillemant qui sont d’une importance considérable. Il ne s’agit nullement de résumer sa pensée, ni de jouer au physicien que je ne suis pas, mais de fournir quelques degrés de l’escalier qui mènent à la compréhension de ses travaux. En tant que philosophe, il m’apparaît aussi légitime de mettre ces nouvelles connaissances en lien avec des doctrines philosophiques du passé, spécialement celles de Platon et de Kant. Philippe Guillemant ne se contente pas de nous dire que l’espace et le temps sont des cadres de la conscience puisqu’il montre que la conscience est active et se révèle capable de réécrire ou de modifier les données qui constituent la trame la plus intime de la réalité. Il rejette l’idée d’un "ordinateur quantique géant" qui produirait le réel phénoménal et relie cette production à l’activité de la conscience. Il ne m’appartient ici de discuter les raisons de ce "basculement", mais celui-ci me paraît décisif et permet de trancher le débat qui consiste à savoir si l’étoffe de la réalité est de nature algorithmique ou mathématique.

Si on rejette le modèle de l’ordinateur quantique, on ne peut se rallier qu’à la seconde hypothèse qui permet de résoudre un des plus anciens problèmes de l’épistémologie depuis la naissance de la physique mathématique : comment se fait-il que nos opérations sur des objets mathématiques soient en si grande "adhérence" avec le monde de la physique ? Comment expliquer que le travail sur une "écriture mathématique" puisse, bien avant sa confirmation expérimentale, "découvrir" des objets du monde physique comme l’antimatière, les trous noirs, le boson de Higgs, etc. ? Cette question, qu’Albert Einstein, avait appelé le "mystère du miracle des mathématiques" trouve ici un début de résolution si nous posons que la réalité est d’essence mathématique.

L’information pure que Pythagore, Platon et plus tard John Dee avaient identifiée à des formes intelligibles de type mathématique est cette "brique" fondamentale qui rend possible, par sa manipulation, toutes les apparences de notre monde. Certes, nous ne sommes pas au bout de nos peines car entre cette base ontologique (le réel est constitué d’essences mathématiques en interaction avec des consciences actives) et la mise en lumière du modus operandi de cette maîtrise de l’information pour produire un monde phénoménal ou interférer avec lui (comme le font à mon sens les OVNIS), il reste encore du chemin à parcourir. Je n’oublie pas cependant que Philippe Guillemant propose une solution à cette question en centrant son analyse sur la capacité pour la conscience, par excitation du vide quantique (véritable "mer d’informations"), de "travailler" sur l’information et sur les manifestations phénoménales qu’elles permettent de produire.

Mais quel prodigieux changement de perspective nous offre ce nouveau cadre ! La cosmologie antique nous parlait de mondes emboîtés dans des sphères physiques (mondes sublunaire, supralunaire, cercles concentriques décrivant des régions dans les espaces éthérés) ; le physique "classique" nous a ensuite parlé d’échelles physiques de plus en plus petites jusqu’au mur de Planck. Avec cette nouvelle approche, le véritable "emboîtement" est celui par lequel on décrit des niveaux de densité de l’information plus ou moins élevés selon une échelle qui n’est plus physique mais informationnelle : J’ai l’intime conviction que la résolution du mystère des OVNIS se trouve dans la considération de cette échelle des densités. Nous occupons, en tant que conscience humaine, un certain étage sur cette échelle, et nos "visiteurs" sont en mesure de pénétrer à notre étage tout en jouant à l’envi avec les paramètres qui définissent la structure de notre monde.

Auteur: Solal Philippe

Info: Les ovnis, la conscience et les mathématiques, 18/03/2015

[ niveaux de réalité ] [ extraterrestres ] [ inconscient ] [ projectionnistes ] [ paranormal ] [ mondes vibratoires ] [ astral ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers évolutionnaires

Des chercheurs découvrent une extinction de masse jusqu’alors inconnue de l’histoire de la Terre

Une extinction de masse désigne un événement ayant entraîné la disparition d’au moins 75 % des espèces présentes sur Terre. Les paléobiologistes affirment que notre planète a déjà connu cinq principaux épisodes de ce type ; certains estiment que nous sommes en train de vivre la sixième extinction. Mais la liste ne s’arrête pas là : des chercheurs de Virginia Tech ont découvert que la Terre aurait subi une extinction de masse il y a environ 550 millions d’années. Ce serait ainsi la toute première extinction que notre planète ait connu.

À ce jour, l’extinction de l’Ordovicien-Silurien, survenue il y a environ 440 millions d’années, est considérée comme la première extinction massive de notre planète. Celle-ci s’est vraisemblablement produite à la suite d’une grande glaciation, à laquelle auraient succombé près de 85% des espèces, faute de réussir à s’adapter à ces nouvelles conditions. Mais des preuves suggèrent aujourd’hui qu’un autre événement d’extinction l’aurait précédée : une diminution de la disponibilité mondiale d’oxygène aurait entraîné la perte d’une majorité d’animaux présents vers la fin de l’Édiacarien, il y a environ 550 millions d’années.

La première extinction de l’histoire de la Terre

Le déclin soudain de la diversité fossile il y a 550 millions d’années est connu depuis longtemps, mais les scientifiques n’avaient pas pu en déterminer la cause avec certitude. Il était possible que les espèces en présence soient entrées en compétition pour la survie, s’éliminant les unes les autres, ou simplement que les conditions environnementales de l’époque n’étaient pas propices à la préservation des fossiles édiacariens. Une nouvelle étude publiée dans Proceedings of the National Academy of Sciences permet aujourd’hui d’affirmer que ce déclin résulte bel et bien d’une extinction de masse.

Notre planète compte cinq extinctions de masse connues, les "Big Five", selon Shuhai Xiao, professeur de géobiologie à Virginia Tech : l’extinction de l’Ordovicien-Silurien (il y a 440 millions d’années), l’extinction du Dévonien tardif (il y a 370 millions d’années), l’extinction du Permien-Trias (il y a 250 millions d’années), l’extinction du Trias-Jurassique (il y a 200 millions d’années) et enfin, l’extinction du Crétacé-Paléogène (il y a 65 millions d’années), qui a anéanti environ 75 % des plantes et des animaux, y compris les dinosaures non aviens.

Toutes sont liées à des changements environnementaux majeurs et à grande échelle. Un changement climatique ou un événement de désoxygénation peuvent entraîner une extinction massive d’animaux, ainsi qu’une perturbation et une réorganisation profondes des écosystèmes. Ce premier événement d’extinction survenu lors de l’Édiacarien n’échappe pas à la règle : lui aussi a été induit par une modification significative de l’environnement.

Près de 80 % des animaux vivant sur Terre auraient disparu lors de cette première extinction massive. "Cela comprenait la perte de nombreux types d’animaux différents, mais ceux dont les plans corporels et les comportements indiquent qu’ils dépendaient d’importantes quantités d’oxygène semblent avoir été particulièrement touchés", explique Scott Evans, chercheur postdoctoral au Département des géosciences de Virginia Tech et premier auteur de l’étude décrivant l’événement.

Un "coup de pouce" à l’évolution ?

Les fossiles à corps mou du biote d’Ediacara – du nom des collines situées au sud de l’Australie où ont été découverts ces fossiles en 1946 – font partie des plus anciens organismes pluricellulaires complexes connus. Les empreintes fossiles datant de la période édiacarienne – soit d’environ -635 à -539 millions d’années – montrent que les animaux qui ont péri lors de cette extinction de masse avaient une apparence très étrange, en forme de feuille, de plume ou de tube.

Selon Evans, les organismes de l’époque semblaient expérimenter différentes façons de construire leurs grands corps multicellulaires. Par conséquent, les fossiles mis au jour datant d’avant l’extinction, ne correspondent pas toujours aux classifications actuelles des animaux. "Cette extinction a peut-être contribué à ouvrir la voie à l’évolution des animaux tels que nous les connaissons", conclut le chercheur. À savoir que la plupart des plans d’organisation animaux existant aujourd’hui sont apparus au cours du Cambrien (soit la période qui succède à l’Édiacarien).

Evans et ses collègues ont scrupuleusement examiné et catalogué l’ensemble des fossiles de la période édiacarienne décrits dans la littérature. Ils ont ainsi identifié 70 genres d’animaux, dont seuls 14 existaient encore quelque 10 millions d’années plus tard. L’équipe n’a toutefois trouvé aucun signe suggérant que ces animaux étaient en concurrence avec les premiers animaux du Cambrien, ni rien qui pouvait expliquer la non-préservation des fossiles.

En revanche, les animaux qui ont survécu arboraient tous un plan d’organisation favorisant la survie en cas d’anoxie : une surface corporelle relativement élevée par rapport à leur volume. Des preuves géochimiques confirment par ailleurs une faible disponibilité d’oxygène dans les océans il y a 550 millions d’années.

Une anoxie dont la cause reste à éclaircir

Qu’est-ce qui a causé cette baisse de la disponibilité globale de l’oxygène ? "La réponse courte à la façon dont cela s’est produit est que nous ne savons pas vraiment", a déclaré Evans. En réalité, plusieurs événements, individuels ou combinés, pourraient être à l’origine du phénomène explique le scientifique : éruptions volcaniques, mouvements de plaques tectoniques, impact d’astéroïde, etc. Des changements dans les niveaux de nutriments des océans pourraient être une autre cause possible. 

 Dans tous les cas, cette extinction a largement influencé l’évolution de la vie sur Terre et cette étude nous donne un aperçu de l’impact à long terme du manque d’oxygène sur la vie aquatique. Il se trouve que dans une autre étude, les scientifiques de Virginia Tech ont récemment découvert que les lacs d’eaux douces du monde perdaient actuellement rapidement de l’oxygène.

Ce phénomène est lié non seulement au réchauffement des eaux induit par le changement climatique, mais aussi à l’excès de ruissellement de substances polluantes (phosphore, azote) lié aux pratiques agricoles : "le réchauffement des eaux diminue la capacité de l’eau douce à retenir l’oxygène, tandis que la dégradation des nutriments dans le ruissellement par les microbes d’eau douce engloutit l’oxygène", expliquent les chercheurs.

En d’autres termes, la découverte de cette nouvelle extinction donne un aperçu des dangers de la crise climatique actuelle pour la vie animale.

Auteur: Internet

Info: https://www.science-et-vie.com, 7 déc 2022  Fleur Brosseau

[ stases ] [ Gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

ouverture

CRAINTIFS INVÉTÉRÉS vs CRÉATIFS VERTÉBRÉS,
Bonjour Paul Jorion,
" Pourquoi élisons-nous des gens qui n'ont pas le courage ensuite de faire ce qu'il faut ? " Parce que les gens qui auraient le courage de faire ce qu'il faut n'ont pas eu le courage de frayer pendant des années, dans les eaux troubles et nauséeuses fréquentées par des gens qui n'ont aucun courage... et qu'ils ne se retrouvent donc jamais en position d'être élus, voire de simplement se présenter devant les électeurs.
J'ai cru personnellement que François Hollande était quelqu'un de cette trempe... jouer les figurants appliqués pour avoir un jour le pouvoir de changer les choses de l'intérieur et durablement... Pour l'instant, il semble que je me sois trompé... ou bien ce fut peut-être le cas au début (car je ne me trompe jamais ;o)) mais il se sera peut-être perdu en chemin... par osmose, il aura attrapé la pétochite chronique ou la scélératose aiguë... Ou bien, miracle, je vais bientôt avoir la surprise incroyable de m'apercevoir que je ne m'étais point trompé... que le bonhomme attendait le bon moment... peut-être a-t-il un plan?... Normalement comme je ne me trompe jamais, c'est ce qui va arriver... et l'on pourra dire : " C'est bon, pour une fois, on a élu un type qui avait du courage... " Un type suffisamment intelligent pour se dire qu'il n'a pas besoin de deux quinquennats pour faire changer les choses... Mais peut-être aussi qu'il attend qu'on l'y pousse... c'est ce que j'avais exprimé quelque temps après son élection... j'avais exprimé mon ressentiment contre l'opposition de gauche qui finalement ne donnait pas grand chose à F. Hollande qu'il puisse faire entendre à Bruxelles ou en Allemagne... comme une France bloquée durant des mois par exemple... si c'était le cas, peut-être que sa voix serait plus sûre, ses arguments plus pointus et la nécessité d'un changement profond plus entendue...
Bonjour Michel Leis,
J'ai bien entendu l'esprit de votre dernier billet et dans un sens je comprends les priorités qui vous ont amené à le rédiger mais je pense malgré tout ne pas être en accord avec vous sur un point de détail qui s'avère être si l'on y réfléchit en réalité plus profondément, absolument crucial... Vous écrivez: " Le vrai travail à réaliser, c'est un exercice de prospective pragmatique : dessiner un paysage global pour le futur et un chemin pour y parvenir. " Et cela semble nourri de bon sens mais en fait, je pense que ça va totalement à l'encontre :
1/ De l'objectif que vous fixez vous-même : c'est-à-dire parvenir à enrayer l'alternative " mauvais populisme/TINA " et
2/ ... du fonctionnement naturel de l'Homme.
Cette manière (objectif visé - moyens utilisés) qui à pu faire ses preuves dans certains domaines et à certains moments atteint à présent ses limites... Alors, il est dur pour moi d'expliquer exactement ce que je ressens car c'est en quelque sorte un mélange de deux notions contradictoires, et pourtant... À la fois, oui, savoir où l'on veut aller, en décrivant le chemin à prendre... oui effectivement, c'est ainsi qu'une guerre en Irak se gère, c'est ainsi que tous les jours l'Homme fabrique, cultive, construit etc. mais en même temps, non... pour les choses importantes, et bien je pense que ça n'est pas ainsi que cela se passe... Je pense que l'improvisation est la colonne vertébrale de l'humanité et le berceau de la créativité et du génie... et que justement, si l'on en est là aujourd'hui (dans une impasse qui menace notre avenir) c'est parce que l'homme (craintif) à voulu tout baliser (sans jeu de mots), tout prévoir, tout planifier, tout rationaliser... Lorsque l'on agit ainsi, finalement, on en perd l'objectif premier justement, qui se métamorphose... et qui devient... et bien qui devient " rationaliser "... voilà le danger... tous les objectifs passent au second plan pour laisser la place à la " rationalité "... il n'y a plus qu'un seul objectif... il faut rationaliser, aseptiser, quadriller, étouffer... L'Homme de génie que nous sommes tous avant aseptisation, se lance... il doit posséder des savoirs, avoir une vision de ce qu'il veut, il envisage des possibilités (des chemins) certes... mais il avance comme en transe à la recherche de l'incarnation de ce qu'il a pressenti, entrevu... guidé par ce que j'appelle des " piliers "... (ses piliers qui le délimitent et qui le caractérisent) il se lance sans pouvoir être certain du résultat... et là encore, on se rend compte que les objectifs finalement sont secondaires et qu'ils cachent en fait un objectif plus grand... la spontanéité... Ressentir la spontanéité, prendre du plaisir à voir se créer concrètement devant ses yeux quelque chose que l'on avait seulement pressenti...
Mais aujourd'hui, pour de très bonnes raisons... ou plutôt non... pour de légitimes raisons (la crainte donc...) la vie est figée... on ne peut plus rien faire... Nous avons perdu la liberté... Paradoxal tout de même de s'apercevoir que les pauvres comme les plus riches se retrouvent sur un point... Le manque de liberté... les plus riches font parfois illusion mais en fait il brassent de l'air... ils sont lancés à vive allure dans une direction qu'ils n'ont pas choisie... à suivre les règles d'un monde fantasmé qu'ils ont intégré mais qui s'avère être très vite un miroir aux alouettes...... bref, ils sont coincés comme des rats... à se regarder en chiens de faïence... à se renifler le derrière.... Alors oui, bien sûr qu'il est bon de penser, d'entendre, de connaître les expertises et les propositions de personnes comme Paul... bien sûr que tout ce qui a été dit sur ce blog est essentiel... mais il ne faudrait pas s'enfoncer dans la même erreur et au final se tromper de combat... Les deux camps ne sont pas : les ultra-libéraux fascisants vs les mauvais populistes fascisants.... qui ne sont que les deux faces d'une même pièce... Non, les deux véritables opposants dans cette guerre sont : les craintifs invétérés vs les créatifs vertébrés. Et c'est vrai que les craintifs deviennent très vite d'une manière comme d'une autre, experts en solutions fascisantes... et c'est vrai qu'ils sont légion... mais c'est vrai aussi qu'à une certaine période de l'histoire, des créatifs vertébrés, par lassitude ou par aveuglement ont bel et bien changé de bord... ils ont décidé en quelque sorte de laisser parler leur crainte... tout en poursuivant leur chemin, ce qui fait qu'ils ne se sont rendu compte de rien... les moyens étaient bons puisque la fin les justifiait... Peu importe les objectifs... ou plutôt, ce qu'il importe de garder en tête c'est que l'objectif c'est: la liberté de créer, la liberté d'improviser... c'est cela en définitive que nous défendons... c'est cela qui est aujourd'hui piétiné... Les autoroutes du comment vivre, les clapiers à bonheur, les mensonges, les clichés, les âneries, les magouilles... l'esprit de clan, la compétition, le grand vide... tout cela est de la crainte qui tente de se grimer... et c'est contre ça qu'il faut lutter... aucune certitude sur le chemin à prendre ne nous garantira la réussite de quoique ce soit... Une seule certitude... la certitude c'est de la crainte figée, glorifiée qui nous enterre... Un seul chemin... ouvrir grand les possibles... désengorger... communiquer cela... Improvisation et création sont les piliers... ils sont l'objectif et les moyens... ils doivent être le cadre et le moteur... la référence... et tout ce qui leur porte atteinte doit être modifié... il est là le chemin...

Auteur: Al

Info: 7 juin 2013 sur le blog de JORION

[ helvète ] [ évolution ] [ bricolage ] [ adaptation ]

 

Commentaires: 0

transposition linguistique

La théorie de la traduction est très rarement - comment dire ? - comique. Son mode de fonctionnement est celui de l'élégie et de l'admonestation sévère. Au XXe siècle, ses grandes figures étaient Vladimir Nabokov, en exil de la Russie soviétique, attaquant des libertins comme Robert Lowell pour leurs infidélités au sens littéral ; ou Walter Benjamin, juif dans un Berlin proto-nazi, décrivant la tâche du traducteur comme un idéal impossible d'exégèse. On ne peut jamais, selon l'argument élégiaque, reproduire précisément un vers de poésie dans une autre langue. Poésie ! Tu ne peux même pas traduire "maman"... Et cet argument élégiaque a son mythe élégiaque : la Tour de Babel, où la multiplicité des langues du monde est considérée comme la punition de l'humanité - condamnée aux hurleurs, aux faux amis, aux applications de menu étrangères. Alors que l'état linguistique idéal serait la langue universelle perdue de l'Eden.

La théorie de la traduction est rarement désinvolte ou joyeuse.

Le nouveau livre de David Bellos sur la traduction contourne d'abord cette philosophie. Il décrit les dragons de la Turquie ottomane, l'invention de la traduction simultanée lors du procès de Nuremberg, les dépêches de presse, les bulles d'Astérix, les sous-titres de Bergman, etc.... Il propose une anthropologie des actes de traduction. Mais à travers cette anthropologie, c'est un projet beaucoup plus grand qui émerge. Les anciennes théories étaient élégiaques, majestueuses ; elles étaient très sévères. Bellos est pratique et vif. Il n'est pas éduqué par l'élégie. Et c'est parce qu'il est sur quelque chose de nouveau.

Bellos est professeur de français et de littérature comparée à l'université de Princeton, et également directeur du programme de traduction et de communication interculturelle de cette université (où, je dois le préciser, j'ai déjà pris la parole). Mais pour moi, il est plus intéressant en tant que traducteur de deux romanciers particulièrement grands et problématiques : le Français Georges Perec, dont l'œuvre se caractérise par un souci maniaque de la forme, et l'Albanais Ismail Kadare, dont Bellos traduit l'œuvre non pas à partir de l'original albanais, mais à partir de traductions françaises supervisées par Kadare. La double expérience de Bellos avec ces romanciers est, je pense, à l'origine de son nouveau livre, car ces expériences de traduction prouvent deux choses : Il est toujours possible de trouver des équivalents adéquats, même pour une prose maniaquement formelle, et il est également possible de trouver de tels équivalents dans une langue qui n'est pas l'original de l'œuvre. Alors que selon les tristes théories orthodoxes de la traduction, aucune de ces vérités ne devrait être vraie.

À un moment donné, Bellos cite avec une fierté légitime un petit exemple de sa propre inventivité. Dans le roman de Perec "La vie : Mode d'emploi" de Perec, un personnage se promène dans une arcade parisienne et s'arrête pour regarder les "cartes de visite humoristiques dans la vitrine d'un magasin de farces et attrapes". Dans l'original français de Perec, l'une de ces cartes est : "Adolf Hitler/Fourreur". Un fourreur est un fourreur, mais la blague de Perec est que cela ressemble aussi à la prononciation française de Führer. Donc Bellos, dans sa version anglaise, traduit à juste titre "fourreur" non pas par "furrier", mais comme ceci : "Adolf Hitler/Lieder allemand". Le nouveau jeu de mots multiphonique de Bellos est une parodie, sans aucun doute - et c'est aussi la traduction la plus précise possible.

Les conclusions que ce paradoxe exige sont, disons, déconcertantes pour le lecteur vieux jeu. Nous sommes habitués à penser que chaque personne parle une langue individuelle - sa langue maternelle - et que cette langue maternelle est une entité discrète, avec un vocabulaire manipulé par une grammaire fixe. Mais cette image, selon Bellos, ne correspond pas aux changements quotidiens de nos multiples langues, ni au désordre de notre utilisation des langues. L'ennemi philosophique profond de Bellos est ce qu'il appelle le "nomenclaturisme", "la notion que les mots sont essentiellement des noms" - une notion qui a été amplifiée dans notre ère moderne d'écriture : une conspiration de lexicographes. Cette idée fausse l'agace parce qu'elle est souvent utilisée pour soutenir l'idée que la traduction est impossible, puisque toutes les langues se composent en grande partie de mots qui n'ont pas d'équivalent unique et complet dans d'autres langues. Mais, écrit Bellos, "un terme simple comme 'tête', par exemple, ne peut être considéré comme le 'nom' d'une chose particulière. Il apparaît dans toutes sortes d'expressions". Et si aucun mot en français, par exemple, ne couvre toutes les connotations du mot "tête", sa signification "dans un usage particulier peut facilement être représentée dans une autre langue".

Cette idée fausse a toutefois une très longue histoire. Depuis que saint Jérôme a traduit la Bible en latin, le débat sur la traduction s'est dissous dans l'ineffable - la fameuse idée que chaque langue crée un monde mental essentiellement différent et que, par conséquent, toutes les traductions sont vouées à l'insuffisance philosophique. Dans la nouvelle proposition de Bellos, la traduction "présuppose au contraire... la non-pertinence de l'ineffable dans les actes de communication". En zigzaguant à travers des études de cas de bibles missionnaires ou de machines linguistiques de la guerre froide, Bellos élimine calmement cette vieille idée de l'ineffable, et ses effets malheureux.

On dit souvent, par exemple, qu'une traduction ne peut jamais être un substitut adéquat de l'original. Mais une traduction, écrit Bellos, n'essaie pas d'être identique à l'original, mais d'être comme lui. C'est pourquoi le duo conceptuel habituel de la traduction - la fidélité et le littéral - est trop maladroit. Ces idées dérivent simplement de l'anxiété déplacée qu'une traduction essaie d'être un substitut. Adolf Hitler/Fourreur ! Une traduction en anglais par "furrier" serait littéralement exacte ; ce serait cependant une ressemblance inadéquate.

En littérature, il existe un sous-ensemble connexe de cette anxiété : l'idée que le style - puisqu'il établit une relation si complexe entre la forme et le contenu - rend une œuvre d'art intraduisible. Mais là encore, cette mélancolie est mélodramatique. Il sera toujours possible, dans une traduction, de trouver de nouvelles relations entre le son et le sens qui soient d'un intérêt équivalent, voire phonétiquement identiques. Le style, comme une blague, a juste besoin de la découverte talentueuse d'équivalents. "Trouver une correspondance pour une blague et une correspondance pour un style", écrit Bellos, "sont deux exemples d'une aptitude plus générale que l'on pourrait appeler une aptitude à la correspondance de modèles".

La traduction, propose Bellos dans une déclaration sèchement explosive, plutôt que de fournir un substitut, "fournit pour une certaine communauté une correspondance acceptable pour une énonciation faite dans une langue étrangère." Ce qui rend cette correspondance acceptable variera en fonction de l'idée que se fait cette communauté des aspects d'un énoncé qui doivent être assortis de sa traduction. Après tout, "on ne peut pas s'attendre à ce qu'une traduction ressemble à sa source sur plus de quelques points précis". Une traduction ne peut donc pas être bonne ou mauvaise "à la manière d'une interrogation scolaire ou d'un relevé bancaire". Une traduction s'apparente davantage à un portrait à l'huile". Dans une traduction, comme dans toute forme d'art, la recherche est celle d'un signe équivalent.

Et pour les habitants de Londres ou de Los Angeles, ce démantèlement des mythes autour de la traduction a des implications particulières. Comme le souligne Bellos, ceux qui sont nés anglophones sont aujourd'hui une minorité de locuteurs de l'anglais : la plupart le parlent comme une deuxième langue. L'anglais est la plus grande interlangue du monde.

Je pense donc que deux perspectives peuvent être tirées de ce livre d'une inventivité éblouissante, et elles sont d'une ampleur réjouissante. Le premier concerne tous les anglophones. Google Translate, sans aucun doute, est un appareil à l'avenir prometteur. Il connaît déjà un tel succès parce que, contrairement aux traducteurs automatiques précédents, mais comme d'autres inventions de Google, il s'agit d'une machine à reconnaissance de formes. Il analyse le corpus des traductions existantes et trouve des correspondances statistiques. Je pense que les implications de ce phénomène n'ont pas encore été suffisamment explorées : des journaux mondiaux aux romans mondiaux... . . . Et cela m'a fait imaginer une deuxième perspective - limitée à un plus petit, hyper-sous-ensemble d'anglophones, les romanciers. Je suis un romancier anglophone, après tout. Je me suis dit qu'il n'y avait aucune raison pour que les traductions d'œuvres de fiction ne puissent pas être faites de manière beaucoup plus extensive dans et à partir de langues qui ne sont pas les langues d'origine de l'œuvre. Oui, j'ai commencé à caresser l'idée d'une future histoire du roman qui serait imprudemment internationale. En d'autres termes : il n'y aurait rien de mal, pensais-je, à rendre la traduction plus joyeuse. 


Auteur: Thirlwell Adam

Info: https://www.nytimes.com/2011/10/30. A propos du livre : Le côté joyeux de la traduction, Faber & Faber Ed. Texte traduit à 90% par deepl.com/translator

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

Les insectes et autres animaux ont une conscience, déclarent les experts

Un groupe d'éminents biologistes et philosophes a annoncé un nouveau consensus : il existe " une possibilité réaliste " que les insectes, les poulpes, les crustacés, les poissons et d'autres animaux négligés fassent l'expérience de la conscience.  

En 2022, des chercheurs du Bee Sensory and Behavioral Ecology Lab de l’Université Queen Mary de Londres ont observé des bourdons faire quelque chose de remarquable : ces petites créatures floues se livraient à une activité qui ne pouvait être décrite que comme un jeu. Une fois face à de minuscules boules de bois, les abeilles les poussent et les font tourner. Ce comportement n’avait aucun lien évident avec l’accouplement ou la survie, et n’était pas non plus récompensé par les scientifiques. Apparemment, c'était juste pour s'amuser.

L’étude sur les abeilles joueuses fait partie d’un ensemble de recherches citées aujourd’hui par un groupe d’éminents spécialistes de l’esprit animal, étayant une nouvelle déclaration qui étend le soutien scientifique à la conscience à un plus grand nombre d’animaux que ce qui avait été formellement reconnu auparavant. Depuis des décennies, les scientifiques s’accordent largement sur le fait que les animaux semblables à nous – les grands singes, par exemple – ont une expérience consciente, même si leur conscience diffère de la nôtre. Ces dernières années, cependant, les chercheurs ont commencé à reconnaître que la conscience pourrait également être répandue chez des animaux très différents de nous, notamment des invertébrés dotés d’un système nerveux complètement différent et bien plus simple.

La nouvelle déclaration, signée par des biologistes et des philosophes, adhère formellement à ce point de vue. On y lit notamment : " Les preuves empiriques indiquent au moins une possibilité réaliste d’expérience consciente chez tous les vertébrés (y compris tous les reptiles, amphibiens et poissons) et de nombreux invertébrés (y compris, au minimum, les mollusques céphalopodes, les crustacés décapodes et les insectes). " Inspiré par les résultats de recherches récentes décrivant des comportements cognitifs complexes chez ces animaux et chez d'autres animaux, le document représente un nouveau consensus et suggère que les chercheurs ont peut-être surestimé le degré de complexité neuronale requis pour la conscience.

La Déclaration de New York sur la conscience animale en quatre paragraphes a été dévoilée aujourd'hui, le 19 avril, lors d'une conférence d'une journée intitulée " La science émergente de la conscience animale " qui s'est tenue à l'Université de New York. Menée par la philosophe et spécialiste des sciences cognitives Kristin Andrews de l'Université York en Ontario, le philosophe et spécialiste de l'environnement Jeff Sebo de l'Université de New York et le philosophe Jonathan Birch de la London School of Economics and Political Science, la déclaration a jusqu'à présent été signée par 39 chercheurs, dont les psychologues Nicola Clayton et Irene Pepperberg, les neuroscientifiques Anil Seth et Christof Koch , le zoologiste Lars Chittka et les philosophes David Chalmers et Peter Godfrey-Smith .

La déclaration se concentre sur le type de conscience le plus fondamental, connu sous le nom de conscience phénoménale. En gros, si une créature a une conscience phénoménale, alors c'est " comme quelque chose " qu'être cette créature — une idée énoncée par le philosophe Thomas Nagel dans son essai influent de 1974, " Qu'est-ce que ça fait d'être une chauve-souris ? " Même si une créature est très différente de nous, écrit Nagel, " " Un organisme a fondamentalement des états mentaux conscients qui correspondent à ce qu'est cet organisme, si et seulement si. ... Nous pouvons appeler cela le caractère subjectif de l'expérience. Si une créature est ainsi consciente, elle a la capacité d’éprouver des sentiments tels que la douleur, le plaisir ou la faim, mais pas nécessairement des états mentaux plus complexes comme la conscience de soi.

" J'espère que celà attire une plus grande attention aux problèmes de la conscience non humaine et aux défis éthiques qui accompagnent la possibilité d'expériences conscientes bien au-delà de l'humain", a écrit Seth, neuroscientifique à l'Université du Sussex, dans un e-mail. " J'espère que cela suscitera des discussions, éclairera les politiques et les pratiques en matière de bien-être animal et galvanisera la compréhension et l'appréciation du fait que nous avons beaucoup plus en commun avec d'autres animaux qu'avec des choses comme ChatGPT. "

Une prise de conscience croissante

La déclaration a commencé à prendre forme l’automne dernier, à la suite de conversations entre Sebo, Andrews et Birch. " Nous parlions tous les trois de tout ce qui s'est passé au cours des 10 ou 15 dernières années dans la science de la conscience animale", se souvient Sebo. Nous savons maintenant, par exemple, que les poulpes ressentent de la douleur et que les seiches se souviennent des détails d'événements passés spécifiques. Des études sur les poissons ont montré que les labres (Labroides dimidiatus) semblent réussir une version du " test du miroir ", qui indique un certain degré d'auto-reconnaissance, et que les poissons zèbres montrent des signes de curiosité. Dans le monde des insectes, les abeilles présentent un comportement de jeu apparent, tandis que les mouches des fruits de la drosophile ont des habitudes de sommeil distinctes influencées par leur environnement social. Pendant ce temps, les écrevisses présentent des états de type anxiété – et ces états peuvent être modifiés par des médicaments anti-anxiété.

Ces signes, ainsi que d’autres, d’états de conscience chez des animaux qui ont longtemps été considérés comme moins conscients ont excité et interpellé les biologistes, les spécialistes des sciences cognitives et les philosophes de l’esprit. "Beaucoup de gens acceptent depuis un certain temps que, par exemple, les mammifères et les oiseaux sont soit conscients, soit très susceptibles de l'être, mais moins d'attention a été accordée aux autres taxons de vertébrés et en particulier d'invertébrés", a déclaré Sebo. Lors de conversations et de réunions, les experts ont largement convenu que ces animaux devaient avoir une conscience. Cependant, ce consensus nouvellement formé n’a pas été communiqué au grand public, notamment aux autres scientifiques et décideurs politiques. Les trois chercheurs ont donc décidé de rédiger une déclaration claire et concise et de la faire circuler parmi leurs collègues pour approbation. La déclaration n’est pas censée être exhaustive mais plutôt " indiquer où nous pensons que le domaine se trouve actuellement et où il se dirige ", a déclaré Sebo.

La nouvelle déclaration met à jour les efforts les plus récents visant à établir un consensus scientifique sur la conscience animale. En 2012, des chercheurs ont publié la Déclaration de Cambridge sur la conscience, qui affirmait qu'un grand nombre d'animaux non humains, y compris, mais sans s'y limiter, les mammifères et les oiseaux, ont " la capacité de manifester des comportements intentionnels " et que " les humains ne sont pas les seuls à posséder les substrats neurologiques " qui génèrent la conscience.

La nouvelle déclaration élargit la portée de son prédécesseur et est également rédigée avec plus de soin, a écrit Seth. " Elle n'essaie pas de faire de la science par diktat, mais souligne plutôt ce que nous devrions prendre au sérieux concernant la conscience animale et l'éthique pertinente, compte tenu des preuves et des théories dont nous disposons." Il a écrit qu’il n’était " pas favorable aux avalanches de lettres ouvertes et autres ", mais qu’il était finalement " parvenu à la conclusion que cette déclaration méritait vraiment d’être soutenue ".

Godfrey-Smith, philosophe des sciences à l'Université de Sydney qui a beaucoup travaillé avec les poulpes, estime que les comportements complexes que présentent ces créatures – notamment la résolution de problèmes, l'utilisation d'outils et le comportement de jeu – ne peuvent être interprétés que comme des indicateurs de conscience. "Elles ont cet engagement attentif avec les choses, avec nous et avec de nouveaux objets qui fait qu'il est très difficile de ne pas penser qu'il se passe beaucoup de choses à l'intérieur d'elles", a-t-il déclaré. Il a noté que des articles récents portant sur la douleur et les états oniriques chez les poulpes et les seiches " vont dans la même direction… ".

Même si de nombreux animaux mentionnés dans la déclaration ont un cerveau et un système nerveux très différents de ceux des humains, les chercheurs affirment que cela ne constitue pas nécessairement un obstacle à la conscience. Par exemple, le cerveau d’une abeille ne contient qu’environ un million de neurones, contre environ 86 milliards dans le cas des humains. Mais chacun de ces neurones d’abeille peut être structurellement aussi complexe qu’un chêne. Le réseau de connexions qu’ils forment est également incroyablement dense, chaque neurone en contactant peut-être 10 000 ou 100 000 autres. Le système nerveux d’une pieuvre, en revanche, est complexe à d’autres égards. Son organisation est hautement distribuée plutôt que centralisée ; un bras coupé peut présenter de nombreux comportements de l'animal intact.

(4 photos : Des recherches récentes sur l’esprit des animaux – notamment ceux des écrevisses, des poulpes, des serpents et des poissons – suggèrent que la conscience " peut exister dans une architecture neurale qui semble complètement étrangère " à la nôtre, a déclaré Peter Godfrey-Smith.)

Le résultat, a déclaré Andrews, est que "  nous n’avons peut-être pas besoin d’autant d’équipement que nous le pensions " pour atteindre la conscience. Elle note, par exemple, que même un cortex cérébral – la couche externe du cerveau des mammifères, censée jouer un rôle dans l’attention, la perception, la mémoire et d’autres aspects clés de la conscience – n’est peut-être pas nécessaire pour une conscience phénoménale plus simple comme celle ciblée dans la déclaration.

"Il y a eu un grand débat sur la question de savoir si les poissons sont conscients, et cela était en grande partie dû au fait qu'ils n'avaient pas les structures cérébrales que nous observons chez les mammifères", a-t-elle déclaré. "Mais quand vous regardez les oiseaux, les reptiles et les amphibiens, ils ont des structures cérébrales très différentes et des pressions évolutives différentes - et pourtant certaines de ces structures cérébrales, comme nous le constatons, font le même genre de travail qu'un cortex cérébral chez l'homme. " Godfrey-Smith est d’accord, notant que des comportements révélateurs de conscience " peuvent exister dans une architecture qui semble complètement étrangère à l’architecture des vertébrés ou des humains ".

Relations conscientes

Bien que la déclaration ait des implications pour le traitement des animaux, et en particulier pour la prévention de la souffrance animale, Sebo a noté que l'accent devrait aller au-delà de la douleur. Il ne suffit pas d'empêcher les animaux en captivité de ressentir des douleurs et des inconforts corporels, a-t-il déclaré. " Nous devons également leur offrir le type d’enrichissement et d’opportunités qui leur permettent d’exprimer leurs instincts, d’explorer leur environnement, de s’engager dans les systèmes sociaux et d’être par ailleurs le genre d’agents complexes qu’ils sont. "

Mais les conséquences de l’attribution du label " conscient " à un plus grand nombre d’animaux – en particulier à des animaux dont nous n’avons pas l’habitude de prendre en compte les intérêts – ne sont pas simples. Par exemple, notre relation avec les insectes peut être " inévitablement quelque peu antagoniste ", a déclaré Godfrey-Smith. Certains ravageurs dévorent les récoltes et les moustiques peuvent être porteurs de maladies. " L'idée selon laquelle nous pourrions simplement faire la paix avec les moustiques est une pensée très différente de l'idée selon laquelle nous pourrions faire la paix avec les poissons et les poulpes", a-t-il déclaré.

De même, peu d’attention est accordée au bien-être des insectes comme la drosophile, largement utilisés dans la recherche en biologie. " Dans la recherche, nous pensons au bien-être du bétail et des souris, mais nous ne pensons jamais au bien-être des insectes ", a déclaré Matilda Gibbons , qui étudie les bases neuronales de la conscience à l'Université de Pennsylvanie et a signé la déclaration.

Même si les organismes scientifiques ont créé certaines normes pour le traitement des souris de laboratoire, il n'est pas clair si la déclaration d'aujourd'hui mènera à de nouvelles normes pour le traitement des insectes. Mais les nouvelles découvertes scientifiques suscitent parfois de nouvelles politiques. La Grande-Bretagne, par exemple, a adopté une législation visant à accroître la protection des poulpes, des crabes et des homards après qu'un rapport de la London School of Economics  ait indiqué que ces animaux pouvaient ressentir de la douleur, de la détresse ou être blessés.

Bien que la déclaration ne fasse aucune mention de l’intelligence artificielle, la question d’une éventuelle conscience de l’IA préoccupe les chercheurs en conscience animale. "Il est très peu probable que les systèmes d'IA actuels soient conscients", a déclaré Sebo. Cependant, ce qu’il a appris sur l’esprit animal " me fait réfléchir et me donne envie d’aborder le sujet avec prudence et humilité ".

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Dan Falk  19 avril 2024

[ entités vivantes ] [ monades ] [ animal-végétal ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel