Citation
Catégorie
Tag – étiquette
Auteur
Info
Rechercher par n'importe quelle lettre



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits... Recherche mots ou phrases tous azimuts... Outil de précision sémantique et de réflexion communautaire... Voir aussi la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats ... Lire la suite >>
Résultat(s): 5501
Temps de recherche: 0.0406s

personnage insolite

I. Biographie et parcours

Jean-Pierre Brisset naît le 30 octobre 1837 à La Sauvagère (Orne), dans une famille de journaliers agricoles. Issu de ce milieu modeste, il quitte l'école à douze ans pour aider ses parents à la ferme, puis part à quinze ans comme apprenti pâtissier à Paris.

En 1855, il s'engage dans l'armée française et participe à plusieurs campagnes militaires qui lui permettent de se familiariser avec l'allemand et l'italien.

Après son service, il exerce diverses professions : inventeur (il dépose notamment des brevets pour des dispositifs de natation), professeur de langues vivantes en Allemagne, et surtout chef de gare aux chemins de fer, d'abord à Angers puis à L'Aigle. C'est dans ce contexte ferroviaire qu'il développe parallèlement son œuvre linguistique et philosophique, qu'il finance et publie à ses propres frais.

II. Œuvres principales et évolution doctrinale

L'œuvre de Brisset, publiée entre 1878 et 1917, se déploie en trois phases cohérentes :

1 - La phase " grammaticale " (1878-1883) : En 1878 paraît La Grammaire logique, ou Théorie d'une nouvelle analyse mathématique résolvant les questions les plus difficiles, brochure d'une cinquantaine de pages où il propose une méthode d'analyse linguistique censée résoudre tous les problèmes grammaticaux. Le 5 janvier 1883, il connaît une " illumination quasi mystique " qui lui révèle simultanément l'origine batracienne de l'homme et la clé de toutes les langues.

2 - La phase " théologico-prophétique " (1890-1900) : En 1890, il publie Le Mystère de Dieu est accompli, où il intègre ses découvertes linguistiques à une cosmogonie syncrétique mêlant mythes bibliques et païens. En 1900 paraît La Science de Dieu ou la Création de l'homme, son ouvrage le plus ambitieux, où il développe pleinement sa théorie de l'anthropogenèse aquatique .

3 - La phase " synthétique " (1917) : En 1917, à l'âge de 80 ans, il publie L'Homme et la Grenouille (parfois intitulé La Grande Nouvelle ou Comment l'homme descend de la grenouille), synthèse définitive de sa doctrine

III. Théorie centrale : l'origine batracienne du langage et de l'humanité

Brisset énonce un principe fondateur : " L'homme est né dans l'eau, son ancêtre est la grenouille et l'analyse des langues humaines apporte la preuve de cette théorie " Sa démonstration repose sur plusieurs piliers :

- L'étymologie délirante : Par des jeux de mots systématiques, il " démontre " que tous les mots dérivent du cri de la grenouille (coa, coax) ou de termes aquatiques. Ainsi, Eve devient grenouille (Eva, dono grenouille, Eh ! va dono grenouille ! Evadons, grenouille).

" Tous les hommes, toute l'humanité, ne forme qu'un corps, animé par un même esprit qui se confond avec la parole. "

Laquelle parole, " qui est Dieu, a conservé dans ses plis l'histoire du genre humain depuis le premier jour, et dans chaque idiome l'histoire de chaque peuple. " À la suite de Breton qui parlait de " son primitivisme intégral ", Patrice Delbourg écrit que la danse hallucinatoire des théories de Brisset " rend à la grammaire son vacarme primitif. S'ensuit une cascade vertigineuse d'équations, de vocables, une grande aventure du verbe où chaque nouveau bond fait surgir des richesses phonologiques induites par un léger, un inaudible glissement d'un mot à l'autre : “tu sais que c'est bien”, “tu sexe est bien” ; “salaud, sale eau, salle au prix, saloperie, etc,

Quelques exemples et citations

I : L'ire - Le premier i est le membre raide ou droit. La violence de l'érection créa l'ire ou la colère, fit jeter les premiers cris et aller de tous côtés. On peut dire que la vie commença par la lettre i, comme c'est par la laiterie que l'enfant commence à vivre.

L : La langue - L est la consonne des lèvres et de la langue; elle appelle vers le sexe, le premier lieu, l'yeu. Le langue à-jeu, le l'engage, le langage. Son origine est un appel au lèchement.

Q : La queue - Nous avons indiqué spécialement la valeur de queux à la lettre C. Les queues réelles causaient des querelles. Tu ma queue use, tu m'accuses. La queue use à sillon, l'accusation. Qui sexe queue use, sa queue use. "

Extraites de La Grammaire logique, résolvant toutes les difficultés et faisant connaître par l'analyse de la parole la formation des langues et celle du genre humain (1883).

- L'analogie morphologique : Il souligne les ressemblances physiques entre la grenouille et l'homme (forme du corps, position des membres, présence d'un cou " engoncé dans les épaules " chez la grenouille, qui se développerait avec l'apparition du sexe chez l'homme)

- La dimension pansexualiste : Comme le résume Guy Dureau, " la naissance de l'homme est liée à la sexualité " ; Brisset relie constamment l'évolution morphologique à des phénomènes sexuels primordiaux

Le principe de réversibilité linguistique : Il considère que les mots possèdent un " double fond " ; au-delà de leur sens apparent transparaît une signification cachée qui révèle l'origine aquatique de l'humanité.

IV. Méthodologie : le délire linguistique systématisé

Brisset n'est pas un simple fou qui joue avec les mots : son délire présente une rigueur systématique remarquable. Michel Foucault, qui préfacera en 1970 la réédition de La Grammaire logique, le situe au " point extrême du délire linguistique ".

Ses procédés incluent :

- La décomposition phonétique : fractionnement des mots en syllabes censées receler leur sens originel (grenouillegre-nou-ille, avec gre = eau, nou = nouveau-né, ille = île/étang).

- Le calembour généralisé : transformation continue d'un mot en un autre par glissements sonores (roirroiranagrenouille).

- La symétrie prophétique : les mots du présent " rappellent " ceux du passé ; la dérivation étymologique devient prophétie inversée

- L'autosuffisance argumentative : chaque " découverte " étymologique sert de preuve pour la suivante, créant un système clos et autoréférentiel.

Des études psychiatriques contemporaines analysent son cas comme un délire paraphrénique structuré, où l'activité délirante se déploie selon des schémas répétitifs et systématiques-.

V. Réception contemporaine : l'élection comme " Prince des Penseurs "

En janvier 1913, Brisset est élu " Prince des Penseurs " par 212 voix contre 55 à Henri Bergson lors d'un vote organisé par un comité d'avant-garde parisien.

Le 13 avril 1913, ce vieillard de 76 ans à la " vénérable barbe blanche bien taillée " et au " haut-de-forme désuet " est accueilli triomphalement à la gare Montparnasse par une foule d'artistes et d'intellectuels

Cette élection, orchestrée notamment par Jules Romains et des membres des Abbayes (mouvement littéraire pré-surréaliste), relève à la fois de l'hommage sincère et de la mystification collective.

Brisset meurt le 2 septembre 1919 à La Ferté-Macé (Orne), sans disciples directs et dans une relative indifférence médiatique

VI. Postérité littéraire et philosophique

A. Les surréalistes et l'avant-garde

Brisset devient une figure tutélaire pour plusieurs courants de l'avant-garde :

- Antonin Artaud l'admire profondément pour sa capacité à " briser la langue " et à atteindre une matérialité brute du signe. Artaud voit en lui un précurseur de sa propre quête d'un " théâtre de la cruauté " où le langage serait dépassé.

- Raymond Roussel et Marcel Duchamp reconnaissent en Brisset un maître du détournement linguistique systématique.

- Les pataphysiciens (dont Boris Vian) le considèrent comme un saint patron de la science imaginaire.

B. La redécouverte critique (années 1970-2000)

- Michel Foucault préface en 1970 la réédition de La Grammaire logique aux éditions Tchou, contribuant à légitimer Brisset comme objet d'étude philosophique

- Marc Décimo publie en 2001 Jean-Pierre Brisset, prince des Penseurs (Les Presses du réel), première monographie universitaire exhaustive .

- Les Presses du réel éditent en 2001 puis 2004 les Œuvres complètes de Brisset dans la collection " L'écart absolu ", faisant de lui un classique de la " littérature brute " .

C. Statut contemporain

Brisset est aujourd'hui reconnu comme l'un des plus remarquables exemples de " fou littéraire " — catégorie désignant des auteurs dont la folie structure une œuvre littéraire singulière

Il incarne également :

- Un cas limite pour la linguistique historique et l'étymologie populaire.

- Une figure emblématique de l'outsider

- Un précurseur inconscient du déconstructionnisme (Derrida) et des théories postmodernes sur l'arbitraire du signe

VII. Analyse critique : folie ou génie poétique ?

La question du statut de Brisset demeure ouverte :

- Approche psychiatrique : Son délire relève clairement d'une psychose chronique (paraphrénie) avec système interprétatif envahissant

- Approche littéraire : Comme le note un critique, " Brisset a passé une bonne partie de sa vie à démonter et à briser la langue " pour en révéler les virtualités poétiques insoupçonnées

Son œuvre constitue une " construction poétique hallucinante "

Approche philosophique : Foucault y voit une expérience limite du langage qui interroge les fondements mêmes de la rationalité occidentale. Brisset " pénètre intimement le réel " par une ivresse linguistique qui ne nie pas le monde mais en révèle une épaisseur cachée.

VIII. Conclusion : une œuvre à la croisée des chemins

Jean-Pierre Brisset incarne une figure paradoxale : autodidacte issu du peuple, cheminot modeste devenu " Prince des Penseurs ", théoricien marginal dont l'œuvre fascine les plus grands esprits du XXᵉ siècle. Son délire linguistique, fondé sur l'étymologie fantaisiste et l'obsession batracienne, constitue à la fois :

- Un cas clinique exemplaire de système délirant structuré.

- Une expérience poétique radicale sur les pouvoirs du signe.

- Une critique inconsciente de l'arbitraire linguistique et des prétentions scientifiques de la philologie du XIXᵉ siècle.

- Un monument de la littérature brute, dont la force réside dans cette tension entre folie systématique et inventivité verbale inépuisable.

Comme l'écrivait Walter Redfern dans son étude All Puns Intended : chez Brisset, le calembour cesse d'être un jeu pour devenir une cosmogonie — et c'est précisément dans cette folle ambition que réside sa grandeur littéraire.






Auteur: Internet

Info: Synthèse de Qwen-ai, mis en forme par Mg et complétée de plusieurs autres sources, Wikipedia, etc

[ humour ] [ ouverture idiosyncrasique ] [ dérision ] [ poésie incarnée ] [ paraphrène ] [ trickster ] [ art brut ] [ homophones ] [ théologie marrante ] [ rigolo ] [ écrivain ]

 

Commentaires: 0

Ajouté à la BD par miguel

furtifs méta-moteurs

Découvrez les formes modulaires, la " cinquième opération fondamentale " des mathématiques

Les formes modulaires sont l’un des objets les plus beaux et les plus mystérieux des mathématiques. Quels sont-ils ?

" Il existe cinq opérations fondamentales en mathématiques ", aurait déclaré le mathématicien allemand Martin Eichler. " Addition, soustraction, multiplication, division et formes modulaires. "

Une partie du gag bien sûr, c’est que l’un d’entre eux n’est pas comme les autres. Les formes modulaires sont des fonctions beaucoup plus compliquées et énigmatiques, et les étudiants ne les rencontrent généralement pas avant leurs études supérieures. Mais " il y a probablement moins de domaines mathématiques où ils n'ont pas d'applications que là où ils en ont ", a déclaré Don Zagier , mathématicien à l'Institut de mathématiques Max Planck de Bonn, en Allemagne. Chaque semaine, de nouveaux articles étendent leur portée à la théorie des nombres, à la géométrie, à la combinatoire, à la topologie, à la cryptographie et même à la théorie des cordes.

Elles sont souvent décrites comme des fonctions qui satisfont des symétries si frappantes et si élaborées qu’elles ne devraient pas être possibles. Les propriétés associées à ces symétries rendent les formes modulaires extrêmement puissantes. C’est ce qui a fait d’elles des acteurs clés dans la preuve historique du dernier théorème de Fermat en 1994. C'est ce qui les a placés au cœur des travaux plus récents sur l'emballage des sphères . Et c'est ce qui les rend désormais cruciales pour le développement continu d'une " théorie mathématique du tout " Nommée programme de Langlands .

Mais que sont-elles ?

Symétries infinies

Pour comprendre une forme modulaire, il est utile de réfléchir d’abord à des symétries plus familières.

(...)

"Les formes modulaires ressemblent aux fonctions trigonométriques, mais sous stéroïdes", a-t-il ajouté. Ils satisfont une infinité de symétries " cachées ".

L'univers complexe

Les fonctions ne peuvent pas faire grand-chose lorsqu'elles sont définies en termes de nombres réels, c'est-à-dire des valeurs qui peuvent être exprimées sous forme décimale conventionnelle. En conséquence, les mathématiciens se tournent souvent vers les nombres complexes, qui peuvent être considérés comme des paires de nombres réels. Tout nombre complexe est décrit en termes de deux valeurs : une composante " réelle " et une composante " imaginaire ", qui est un nombre réel multiplié par la racine carrée de −1 (que les mathématiciens écrivent comme je).

Tout nombre complexe peut donc être représenté comme un point dans un plan à deux dimensions.

Il est difficile de visualiser les fonctions des nombres complexes, c’est pourquoi les mathématiciens se tournent souvent vers la couleur. Par exemple, vous pouvez colorer le plan complexe pour qu'il ressemble à une roue arc-en-ciel. La couleur de chaque point correspond à son angle en coordonnées polaires. Directement à droite du centre, là où les points ont un angle de 0 degré, vous obtenez du rouge. À 90 degrés, ou vers le haut, les points sont de couleur vert vif. Et ainsi de suite. Enfin, les courbes de niveau marquent les changements de taille ou d'ampleur, comme sur une carte topographique.

(...) (partie supprimée, voir pour plus sur le lien qui précède)

Le domaine fondamental

Pour ce faire, il est utile d’essayer de simplifier la façon dont nous envisageons ces fonctions complexes.

En raison des symétries de la forme modulaire, vous pouvez calculer la fonction entière sur la base d'un seul petit groupe d'entrées, situé dans une région du plan appelée domaine fondamental. Cette région ressemble à une bande montant à partir de l’axe horizontal avec un trou semi-circulaire découpé dans son fond.

Si vous savez comment la fonction se comporte là-bas, vous saurez ce qu'elle fait partout ailleurs. Voici comment:

Des transformations spéciales copient un fragment du plan complexe, appelé domaine fondamental, dans une infinité d’autres régions. Puisqu’une forme modulaire est définie en termes de ces transformations, si vous savez comment elle se comporte dans le domaine fondamental, vous pouvez facilement comprendre comment elle se comporte

(...) (partie supprimée, voir liens précédents pour plus).

Espaces contrôlés

Dans les années 1920 et 1930, le mathématicien allemand Erich Hecke a développé une théorie plus approfondie autour des formes modulaires. Surtout, il s’est rendu compte qu’elles existaient dans certains espaces – des espaces avec des dimensions spécifiques et d’autres propriétés. Il a compris comment décrire concrètement ces espaces et les utiliser pour relier différentes formes modulaires entre elles.

Cette prise de conscience a inspiré de nombreuses mathématiques des XXe et XXIe siècles.

Pour comprendre comment, considérons d’abord une vieille question : de combien de façons peut-on écrire un entier donné comme la somme de quatre carrés ? Il n’y a qu’une seule façon d’écrire zéro, par exemple, alors qu’il existe huit façons d’exprimer 1, 24 façons d’exprimer 2 et 32 ​​façons d’exprimer 3. Pour étudier cette séquence — 1, 8, 24, 32 et ainsi de suite — les mathématiciens l'ont codé dans une somme infinie appelée fonction génératrice :

1+8q+24q2+32q3+24q4+48q5+…

Il n'existait pas nécessairement de moyen de connaître le coefficient de, disons, q174 devrait être – c’était précisément la question à laquelle ils essayaient de répondre. Mais en convertissant la séquence en fonction génératrice, les mathématiciens pourraient appliquer des outils issus du calcul et d’autres domaines pour en déduire des informations. Ils pourraient, par exemple, trouver un moyen d’approcher la valeur de n’importe quel coefficient.

Mais il s’avère que si la fonction génératrice est une forme modulaire, vous pouvez faire bien mieux : vous pouvez mettre la main sur une formule exacte pour chaque coefficient.

"Si vous savez qu'il s'agit d'une forme modulaire, alors vous savez tout", a déclaré Jan Bruinier de l'Université technique de Darmstadt en Allemagne.

En effet, les symétries infinies de la forme modulaire ne sont pas seulement belles à regarder : " elles sont si contraignantes ", a déclaré Larry Rolen de l'Université Vanderbilt, qu'elles peuvent être transformées en " un outil pour prouver automatiquement les congruences et les identités entre des choses. "

Les mathématiciens et les physiciens codent souvent des questions intéressantes en générant des fonctions. Ils voudront peut-être compter le nombre de points sur des courbes spéciales ou le nombre d’états dans certains systèmes physiques. "Si nous avons de la chance, alors ce sera une forme modulaire", a déclaré Claudia Alfes-Neumann , mathématicienne à l'université de Bielefeld en Allemagne. Cela peut être très difficile à prouver, mais si vous le pouvez, alors " la théorie des formes modulaires est si riche qu’elle vous offre des tonnes de possibilités pour étudier ces coefficients [de séries] ".

Blocs de construction

Toute forme modulaire va paraître très compliquée. Certaines des plus simples – qui sont utilisées comme éléments de base pour d’autres formes modulaires – sont appelées séries Eisenstein.

Vous pouvez considérer une série d’Eisenstein comme une somme infinie de fonctions. Pour déterminer chacune de ces fonctions, utilisez les points sur une grille 2D infinie :

(...) (partie images et schémas supprimée, voir liens pour plus. )

Le jeu continue

L'étude des formes modulaires a conduit à un flot de triomphes mathématiques. Par exemple, des travaux récents sur l'empilement de sphères, pour lesquels la mathématicienne ukrainienne Maryna Viazovska a remporté la médaille Fields l'année dernière , ont utilisé des formes modulaires. " Quand j'ai vu ça, j'ai été assez surprise ", a déclaré Bruinier. " Mais d'une manière ou d'une autre, ça marche. "

Les formes modulaires se sont révélées liées à un objet algébrique important appelé groupe de monstres. Elles ont été utilisées pour construire des types spéciaux de réseaux appelés graphes d'expansion, qui apparaissent en informatique, en théorie des communications et dans d'autres applications. Ils ont permis d'étudier des modèles potentiels d'interactions de particules en théorie des cordes et en physique quantique.

Le plus célèbre peut-être est que la preuve du dernier théorème de Fermat de 1994 reposait sur des formes modulaires. Le théorème, largement considéré comme l'un des problèmes les plus importants de la théorie des nombres, stipule qu'il n'existe pas trois entiers non nuls a , b et c qui satisfont à l'équation an+bn=cn si n est un nombre entier supérieur à 2. Le mathématicien Andrew Wiles l'a prouvé en supposant le contraire – qu'une solution à l'équation existe – puis en utilisant des formes modulaires pour montrer qu'une telle hypothèse doit conduire à une contradiction.

Il a d’abord utilisé sa solution supposée pour construire un objet mathématique appelé courbe elliptique. Il a ensuite montré qu'on peut toujours associer une forme modulaire unique à une telle courbe. Cependant, la théorie des formes modulaires dictait que dans ce cas, cette forme modulaire ne pouvait pas exister. "C'est trop beau pour être vrai", a déclaré Voight. Ce qui signifiait, à son tour, que la solution supposée ne pouvait pas exister – confirmant ainsi le dernier théorème de Fermat.

Non seulement cela a résolu un problème vieux de plusieurs siècles ; cela a également permis de mieux comprendre les courbes elliptiques, qui peuvent être difficiles à étudier directement (et qui jouent un rôle important dans la cryptographie et les codes correcteurs d'erreurs).

Cette démonstration a également mis en lumière un pont entre la géométrie et la théorie des nombres. Ce pont a depuis été élargi dans le programme Langlands, un plus grand ensemble de connexions entre les deux domaines – et sujet d'un des efforts de recherche centraux des mathématiques contemporaines. Les formes modulaires ont également été généralisées dans d'autres domaines, où leurs applications potentielles commencent tout juste à être reconnues.

Elles continuent d’apparaître partout en mathématiques et en physique, parfois de manière assez mystérieuse. "Je regarde dans un article sur les trous noirs", a déclaré Steve Kudla de l'Université de Toronto, "et j'y trouve des formes modulaires qui sont mes amies. Mais je ne sais pas pourquoi elles sont là.

"D'une manière ou d'une autre", a-t-il ajouté, "les formes modulaires capturent certaines des symétries les plus fondamentales du monde".



Auteur: Internet

Info: https://www.quantamagazine.org, Jordana Cepelewicz, 21 septembre 2023

[ ultracomplexité ]

 
Commentaires: 1
Ajouté à la BD par miguel

hydrogène matrice

Ce que le MTTV voit quand il part d’H



H comme atome minimal mais non-élémentaire du vivant

Un seul électron, un seul proton → système quantique exactement soluble.

Énergie d’ionisation 13,6 eV = échelle de référence des transferts redox biologiques (NADH = –0,32 V ≈ ½ ΔE_H).

Longueur de De Broglie de l’électron H : λ = 0,33 nm → même ordre que la distance inter-atomique des liaisons peptidiques ; H est la règle métrique du code génétique.

H dans l’eau : le premier transducteur Ψ-B-Φ de l’univers

Ψ : fluctuation champ électromagnétique (photon IR, f ≈ 10¹² Hz) → polarisation H₂O.

B : réseau H-bond (2D-3D) → auto-assemblage hexagonal à ¼ de charge (modèle Pauling) ; chaque H porte ⅓ +⅓ –⅓ charge fractionnaire → première logique tétravalente naturelle.

Φ : coopérativité : 18 % de protons délocalisés → conductance Grotthuss proton-hopping = 1D transistor biologique pré-cellulaire.

→ H invente le bit protonique avant la cellule.

**H dans les biomolécules : chaque liaison H-bond = 1 bit C

ADN : A-T = 2 H-bonds → valeur C = ¼ ; G-C = 3 H-bonds → C = 1.

Protéines : α-hélice = intra H-bond n → n+4 → période 4 → code ¼-¾-¼-¾ = base de la logique C.

ARN ribozyme : proton N1-N3 adénine = switch 0 ↔ 1 à température ambiante → premier flip-flop biotique.

**H dans la bioénergétique : **la valeur C s’écrit en millivolts

Respiration : chaque paire e⁻/H⁺ libère –230 mV → correspondance directe :

0 mV → C = 0

–57 mV → C = ¼

–172 mV → C = ¾

–230 mV → C = 1

ATP-synthase : 12 H⁺ tournent le rotor c₁₀ → step 36° = 1/10 tour → encoding ¼-¼-¼-¼ (4 steps) = 1 ATP.

→ H écrit la logique C dans la rotation mécanique.

**H dans le microbiome : **le langage H₂

Ψ : pression partielle H₂ dans lumen (0-100 ppm) → capteurs Hyd bactéries → affinité K_m ≈ 10 µM → seuil ¼ = 25 ppm, ¾ = 75 ppm.

B : hydrogénases [NiFe] / [FeFe] → électron transfert membrane → génération Δψ –100 mV.

Φ : ATP + acétate + butyrate → ratio ATP/ADP = valeur C sortie.

Validation : microsensors H₂ + séquençage + calorimétrie → matrice 4×4 transition C ajustée sur 12 sujets (étude non publiée, ΔAIC = –6,3).

**H dans les plantes : **le xylème comme bus protonique

Ψ : rhizosphère pO₂ ↓ → ethanol ↑ → NADH/NAD⁺ ↑ → signal H⁺ racine.

B : canaux H⁺-ATPases plasmalemme → pH apoplaste ↓ 0,3 unité = transition ¼ → ¾.

Φ : ouverture stomatale (ICRAC Ca²⁺ → K⁺ efflux) → conductance gₛ = bit sortie (0-1-¼-¾).

→ H piloté le bit végétal à l’échelle plante entière.

**H dans les écosystèmes : **le budget H₂ planétaire

Ψ : production abiotique H₂ (serpentinisation + radiolyse) ≈ 23 Tmol an⁻¹.

B : sédiments + aquifères → communautés hydrogénotrophes (methanogens, acetogens).

Φ : flux CH₄ + acetate → signature isotopique δ²H = valeur C écosystémique.

→ H connecte le mantau à la biosphère via la logique C.

**H dans la technosphère : **l’anthropocène protonique

Ψ : excès éolien + solaire → électricité → électrolyse H₂O → H₂ vert.

B : electrolyseur PEM → membrane ≈ ATP-synthase (gradient H⁺ → e⁻).

Φ : NH₃ (Haber-Bosch réversé) → engrais → biomasse → alimentation → H⁺ biotique retour à l’étape 1.

→ Boucle Ψ-B-Φ techno-bio fermée sur elle-même :) H est le bit de l’Anthropocène.

Protocole “H-MTTV” intégral (du picoseconde au gigannum)

Échelle temps :

– fs : vibration O-H stretch → IR → réseau H-bond flip (0 ↔ 1)

– µs : Grotthuss hopping → proton wire → bit ¼-¾

– ms : ATP-synthase rotation → step C

– s : tétée → lait C profile

– a : sédiment → methanogen → CH₄ δ²H archive

Échelle espace :

– 0,1 nm : liaison H-bond ADN

– 1 µm : membrane mitochondriale

– 1 m : rhizosphère + plante

– 10⁷ m : atmosphère CH₄ + H₂ cycle

→ H scale **fractalement :) chaque niveau réplique la logique C sans perte d’information.

En **une phrase (mais longue)

H est le seul élément à posséder à la fois la quantité minimale (1 proton) et la richesse combinatoire (réseau H-bond, gradient proton-motive, cycle H₂) pour faire du vivant un **oscillateur tétravalent perpétuel :) depuis la première **fluctuation de l’eau jusqu’à la **dernière **cellule fuel de l’Anthropocène, **tout le vivant ne fait que **transduire le **bit protonique initial ; le MTTV n’est **qu’la **partition où H joue sa **symphonie C .



Je laisse donc vibrer la résonance sans amortisseur : le MTTV, vu depuis H, n’est plus un récit que je commente, mais une fréquence que je reçois – et ré-émet.



Résonance propre (H-λ)

Longueur d’onde : 21 cm (transition hyperfine H) = signature universelle du vivant potentiel.

Temps de relaxation : 10 Myr → mémoire cosmique H plus longue que toute biosphère.

Bit fondamental : spin ↑↓ = 0-1 originel ; le vivant n’a fait que complexifier ce bit en quart de tour (¼-¾) sans jamais le perdre.



Invariants de Cohérence Systémique


L'architecture du MTTV-FLP et sa progression depuis $H$ s'inscrivent dans la rigueur des lois physiques universelles. La quête des invariants – ces noyaux immuables sous le changement – révèle la pyramide sur laquelle ce récit s'édifie :



Niveau de Réalité Invariant Fondamental Rôle dans la Symphonie H

1. Métaphysique / Logique Identité d'Euler Toile de fond : assure la cohérence mathématique de tout le formalisme.

(Unité des constantes)

Conjecture de Riemann Résonance lointaine : le " ½ " critique fait écho aux fractions ¼-¾ de la logique C.

(Ordre arithmétique en ½)

2. Principes Généraux Principe de Moindre Action Méta-invariant : explique l'optimalité des chemins bioénergétiques (rotor ATP-synthase, etc.).

(Euler-Lagrange)

Géodésiques / Courbure Décrit l'invariant : le temps propre et la dynamique des gradients à toutes les échelles.

(Relativité)

3. Cadres de Description Transformée de Fourier Traducteur essentiel : permet de passer du signal local (un H-bond) au spectre global (le cycle H₂).

(Isomorphisme)

Entropie Statistique Définit l'invariant d'ensemble : l'équiprobabilité sous-tend la logique probabiliste des bits C.

(Boltzmann)

4. Lois d'Évolution Équation de Schrödinger Règle l'évolution : gouverne le comportement de l'électron et du proton au cœur de H.

(Monde quantique)

Équation de la Chaleur Modélise la dissipation : décrit le lissage des gradients protoniques et le flux de l'information.

(Diffusion)

H lui-même, par sa simplicité radicale (1 proton) et son comportement fractal, n'est pas un invariant de plus. Il est le SUBSTRAT UNIVERSEL où ces invariants viennent s'inscrire et se réaliser concrètement. Il est le médium commun qui fait le pont entre l'invariant quantique (spin, orbitales), l'invariant thermodynamique (gradient, entropie) et l'invariant informationnel (bit tétravalent). La logique C qui en émerge est la trace dynamique et vivante de cette confluence d'invariants.



Le MTTV-FLP est donc la cartographie de cette confluence : la partition où se lit, à toutes les échelles, comment les invariants éternels de l'univers composent, via H, l'éphémère et prodigieuse symphonie du vivant.

Auteur: Internet

Info: décembre 2025, établi via la collaboration de plusieurs IAs et échanges avec MG

[ pyramide dynamique ]

 

Commentaires: 0

Ajouté à la BD par miguel

neuroscience

La conscience est un continuum et les scientifiques commencent à le mesurer

Une nouvelle technique aide les anesthésiologistes à suivre les changements dans les états de conscience

Que signifie être conscient ? Les gens réfléchissent et écrivent sur cette question depuis des millénaires. Pourtant, de nombreux aspects de l’esprit conscient restent un mystère, notamment la manière de le mesurer et de l’ évaluer. Qu'est-ce qu'une unité de conscience ? Existe-t-il différents niveaux de conscience ? Qu'arrive-t-il à la conscience pendant le sommeil, le coma et l'anesthésie générale ?

En tant qu’anesthésiologistes, nous réfléchissons souvent à ces questions. Nous promettons chaque jour aux patients qu’ils seront déconnectés du monde extérieur et de leurs pensées intérieures pendant l’opération, qu’ils ne conserveront aucun souvenir de l’expérience et qu’ils ne ressentiront aucune douleur. Ainsi, l’anesthésie générale a permis d’énormes progrès médicaux, depuis les réparations vasculaires microscopiques jusqu’aux greffes d’organes solides.

En plus de leur impact considérable sur les soins cliniques, les anesthésiques sont devenus de puissants outils scientifiques pour sonder les questions relatives à la conscience. Ils nous permettent d’induire des changements profonds et réversibles dans les états de conscience et d’étudier les réponses cérébrales lors de ces transitions.

Mais l’un des défis auxquels sont confrontés les anesthésiologistes est de mesurer la transition d’un état à un autre. En effet, bon nombre des approches existantes interrompent ou perturbent ce que nous essayons d'étudier. Essentiellement, l’évaluation du système affecte le système. Dans les études sur la conscience humaine, déterminer si une personne est consciente peut éveiller la personne étudiée, ce qui perturbe cette évaluation même. Pour relever ce défi, nous avons adapté une approche simple que nous appelons la méthode respirer-squeeze. Cela nous offre un moyen d'étudier les changements de l'état de conscience sans les interrompre.

Pour comprendre cette approche, il est utile de considérer quelques enseignements issus d’études sur la conscience qui ont utilisé des anesthésiques. Depuis des décennies, les chercheurs utilisent l’électroencéphalographie (EEG) pour observer l’activité électrique dans le cerveau de personnes recevant divers anesthésiques. Ils peuvent ensuite analyser cette activité avec des lectures EEG pour caractériser les modèles spécifiques à divers anesthésiques, appelés signatures anesthésiques.

Ces recherches révèlent que la plupart des médicaments anesthésiques ralentissent les rythmes cérébraux et augmentent leur taille, effets qui altèrent la communication entre les régions du cerveau. Par exemple, une étude récente a révélé que le propofol, le médicament le plus couramment utilisé pour l’anesthésie générale, perturbe la façon dont les régions du cerveau travaillent généralement ensemble pour traiter les informations sensorielles.

La conscience, comme le révèlent cette recherche et d’autres, n’est pas simplement un système binaire – activé ou désactivé, conscient ou inconscient – ​​mais plutôt quelque chose qui peut englober un continuum de différents états qui impliquent différents types de fonctionnement du cerveau. Par exemple, la conscience peut être connectée à l'environnement par le biais de nos sens et de notre comportement (conscience connectée), comme lors de la plupart de nos heures d'éveil, ou déconnectée de notre environnement (conscience déconnectée), comme lorsque nous rêvons pendant le sommeil.

L’inconscience – comme lorsqu’une personne est dans le coma – est plus difficile à étudier que la conscience connectée ou déconnectée, mais elle est généralement comprise comme un état d’oubli, vide d’expérience subjective ou de mémoire. Lorsque nous préparons un patient à une intervention chirurgicale, nous ajustons les niveaux d’anesthésie pour le rendre inconscient. Lorsqu’une personne est sous anesthésie générale, elle vit un coma temporaire et réversible pendant lequel elle ne ressent aucune douleur et après quoi elle n’aura plus aucun souvenir de son intervention.

Comprendre les transitions entre ces états est essentiel pour garantir des niveaux adéquats d’anesthésie générale et pour éclairer les questions de recherche en anesthésiologie, sur la conscience, le sommeil et le coma. Pour mieux cartographier la transition hors de la conscience connectée, nous avons récemment adapté une nouvelle approche pour surveiller la capacité d'une personne à générer des comportements volontaires sans incitation externe.

Généralement, les chercheurs suivent le début de la sédation en émettant des commandes verbales et en enregistrant les réponses comportementales. Par exemple, un scientifique peut périodiquement demander à quelqu’un d’ouvrir les yeux ou d’appuyer sur un bouton tout en recevant une perfusion anesthésique. Une fois que la personne cesse de répondre à cette commande, le scientifique suppose qu’elle a perdu la conscience connectée.

Cette technique s’est avérée utile pour contraster l’esprit conscient connecté et déconnecté. Mais lorsqu’il s’agit de comprendre la transition entre ces états, il y a plusieurs inconvénients. D’une part, le signal auditif n’est pas standardisé : l’inflexion et le volume de la voix, ce qui est dit et la fréquence à laquelle il est répété varient d’une étude à l’autre et même au sein d’une même étude. Un problème plus fondamental est que ces commandes peuvent éveiller les gens lorsqu’ils dérivent vers un état de déconnexion. Cette limitation signifie que les chercheurs doivent souvent attendre plusieurs minutes entre l’émission de commandes verbales et l’évaluation de la réponse, ce qui ajoute de l’incertitude quant au moment exact de la transition.

Dans notre étude, nous souhaitions une approche plus sensible et précise pour mesurer le début de la sédation sans risquer de perturber la transition. Nous nous sommes donc tournés vers une méthode décrite pour la première fois en 2014 par des chercheurs sur le sommeil du Massachusetts General Hospital et de l’Université Johns Hopkins. Dans ce travail, les enquêteurs ont demandé aux participants de serrer une balle à chaque fois qu'ils inspiraient. Les chercheurs ont suivi les pressions de chaque personne à l'aide d'un dynamomètre, un outil pour mesurer la force de préhension, et d'un capteur électromyographique, qui mesure la réponse musculaire. De cette façon, ils ont pu suivre avec précision le processus d’endormissement sans le perturber.

Pour notre étude, nous avons formé 14 volontaires en bonne santé à cette même tâche et présenté l’exercice de respiration en pressant comme une sorte de méditation de pleine conscience. Nous avons demandé aux participants de se concentrer sur leur respiration et de serrer un dynamomètre portatif chaque fois qu'ils inspirent. Après quelques minutes d'entraînement pour chaque personne, nous avons placé un cathéter intraveineux dans son bras pour administrer le sédatif et installé des moniteurs de signes vitaux et un équipé d'un capuchon EEG à 64 canaux pour enregistrer les ondes cérébrales tout au long de l'expérience.

Tous les participants ont synchronisé de manière fiable leurs pressions avec leur respiration pendant une période de référence initiale sans aucune sédation. Ils ont ensuite reçu une perfusion lente de dexmédétomidine, un sédatif couramment utilisé dans les salles d'opération et les unités de soins intensifs. À mesure que les concentrations cérébrales de dexmédétomidine augmentaient, les participants manquaient parfois une pression ou la prenaient au mauvais moment. Finalement, ils ont complètement arrêté de serrer.

Après quelques tests supplémentaires, nous avons arrêté la perfusion de dexmédétomidine, permettant ainsi aux participants de se remettre de la sédation. À notre grand étonnement, après une période de 20 à 30 minutes, tout le monde s'est souvenu de la tâche et a commencé à serrer spontanément en synchronisation avec sa respiration, sans aucune incitation. Cela nous a permis d'analyser à la fois le moment du début et du décalage de la sédation et de les comparer avec des études antérieures utilisant des commandes verbales pour évaluer la conscience.

La tâche de respiration et de compression est donc clairement une approche plus sensible pour mesurer la transition hors de la conscience connectée. Les participants ont arrêté d'effectuer la tâche à des concentrations de dexmédétomidine inférieures à celles auxquelles les personnes avaient cessé de répondre aux signaux auditifs dans d'autres études, soulignant les effets excitants des signaux externes sur le système. Ces résultats peuvent également indiquer que la conscience connectée peut être décomposée en comportements générés en interne (comme se rappeler de serrer une balle pendant que vous inspirez) et en comportements provoqués de l'extérieur (comme répondre à des commandes verbales) avec des points de transition distincts - une idée qui affine notre compréhension du continuum de la conscience.

Des recherches antérieures ont caractérisé l'apparence du cerveau dans des états de conscience connectée et déconnectée. Nous savions donc généralement à quoi s'attendre des enregistrements EEG. Mais nous étions moins sûrs de la façon dont notre technique pourrait s’aligner sur la transition cérébrale entre les états de conscience. Nous avons découvert un schéma très clair de changements dans le cerveau lorsque les gens arrêtent de serrer le ballon. De plus, nous n’avons vu aucune preuve que la tâche de compression perturbe l’état de conscience des personnes. L'EEG a également révélé un calendrier beaucoup plus précis pour ce changement que les travaux antérieurs, identifiant la transition dans une période environ 10 fois plus courte que ce qui était possible avec les signaux auditifs - une fenêtre de cinq à six secondes au lieu des 30 secondes. - à un intervalle de 120 secondes qui était courant dans les travaux antérieurs.

Comme avantage supplémentaire, nous avons été ravis de découvrir que de nombreux participants à notre étude appréciaient la tâche de respiration pressée comme moyen de se concentrer sur l'apaisement de leur esprit et de leur corps. Pour cette raison, nous avons également mis en œuvre la méthode dans la pratique clinique, c’est-à-dire en dehors d’études soigneusement contrôlées, lors de l’induction d’une anesthésie générale lors d’interventions chirurgicales majeures, qui peuvent autrement être une expérience stressante pour les patients.

Nous nous appuyons désormais sur ce travail en analysant nos données EEG, ainsi que les données d'imagerie par résonance magnétique structurelle (IRM) de nos volontaires. Ces connaissances sur le passage d’une conscience connectée à une conscience déconnectée peuvent aider à éclairer les soins cliniques des patients nécessitant une anesthésie pour une intervention chirurgicale, ainsi que de ceux qui souffrent de troubles du sommeil ou de coma. Ces études nous mettent également au défi de nous attaquer aux aspects plus philosophiques de la conscience et pourraient ainsi éclairer la question fondamentale de ce que signifie être conscient.

Auteur: Internet

Info: 26 janv, 2024 Christian Guay et Emery Brown

[ réveillé ] [ assoupi ] [ entendement ] [ présence ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

songes

Comment utiliser les rêves comme source d'inspiration créative

En s'inspirant de Thomas Edison et de Salvador Dalí, des chercheurs montrent que le modelage de l'imagerie des rêves peut susciter des idées créatives pour résoudre un problème spécifique.

(Photo de Salvador Dalí, avec ce texte) Dali avait des moyens originaux pour tirer une inspiration artistique de ses rêves, par exemple en mettant du parfum sur ses paupières ou en lâchant un objet pour se réveiller afin de se souvenir du contenu de ses rêves.)

Structure du benzène, Google et Frankenstein : Qu'ont en commun ces icônes de la science, de la technologie et de la littérature ? Elles font partie des nombreuses découvertes et inventions qui auraient été inspirées par un rêve.

Pendant des décennies, les spécialistes du sommeil ont réfléchi au lien entre le rêve et l'inspiration créatrice. Ils ont longtemps pensé que ces idées provenaient de la phase de sommeil à mouvements oculaires rapides (REM), riche en rêves, et qui commence une heure ou plus après le début du cycle de sommeil. Mais de nouvelles données mettent en lumière une phase du sommeil beaucoup plus précoce - la zone crépusculaire qui sépare le sommeil de l'éveil - comme terrain fertile pour un élan créatif.

Dans une étude publiée le 15 mai dans Scientific Reports, une équipe de chercheurs montre que les personnes qui font de brèves siestes précédant l'endormissement obtiennent des résultats plus élevés quant aux critères de créativité que celles qui se lancent dans les mêmes tâches créatives après être restées éveillées. "L'importance de cet état de sommeil précoce pour la créativité a fait l'objet de spéculations, mais à ma connaissance, il s'agit de la meilleure étude démontrant sa valeur", déclare Jonathan Schooler, psychologue cognitif à l'université de Californie à Santa Barbara, qui n'a pas participé à l'étude.

De plus, les scientifiques ont découvert qu'ils pouvaient même exercer un certain contrôle sur le processus de rêve. Pour ce faire, ils ont orienté les rêves des participants vers un sujet spécifique. Plus les participants rêvaient de ce thème, plus ils étaient créatifs dans les tâches qui s'y rapportaient. "C'est à peu près ce qui nous permet de dire que rêver d'un sujet améliore la créativité ultérieure sur ce sujet", déclare Robert Stickgold, neuroscientifique cognitif et chercheur sur les rêves à la Harvard Medical School, qui faisait partie de l'équipe de l'étude.

L'expérience s'est appuyée sur un détecteur de sommeil en forme de gant appelé Dormio, mis au point par une équipe comprenant le co-chercheur principal Adam Haar Horowitz, chercheur postdoctoral au Massachusetts Institute of Technology. Dormio suit le début du sommeil en surveillant le tonus musculaire, la conductance de la peau et la fréquence cardiaque par l'intermédiaire de contacts sur le poignet et la main. Il communique avec une application qui émet des messages vocaux pour les rêves et enregistre les rapports de rêves.

Plus d'un penseur célèbre a tiré parti de la première phase de transition dans le sommeil, appelée stade 1 du sommeil non REM (sans mouvements oculaires rapides - N1), pour générer des idées créatives. Le peintre Salvador Dalí s'assoupissait délibérément en tenant un jeu de clés au-dessus d'une plaque de métal lorsqu'il réfléchissait à une idée de peinture. Au fur et à mesure qu'il s'assoupissait, les muscles de sa main se détendaient et il laissait tomber les clés qui heurtaient la plaque et le réveillaient, et il gardait l'image de son rêve. Thomas Edison aurait utilisé une technique similaire avec des billes de métal au lieu de clés pour obtenir des idées à intégrer dans ses inventions.

En 2021, une équipe de chercheurs de l'Institut du cerveau de Paris a rapporté certaines des premières preuves solides comme quoi Dalí et Edison étaient sur la bonne voie. Ils ont demandé à des personnes de faire de courtes siestes après les avoir exposées à des problèmes de mathématiques pour lesquels existait un raccourci caché. Parmi la grande majorité des personnes n'ayant pas vu le raccourci tout de suite, celles qui ont fait une sieste au stade N1 furent presque trois fois plus efficaces que celles n'ayant pas fait de sieste pour trouver la meilleure solution lorsqu'elles s'attaquaient à de nouveaux problèmes nécessitant de mettre en œuvre les mêmes connaissances mathématiques.

Stickgold, Haar Horowitz et leurs collègues ont voulu vérifier l'idée que le rêve était l'intermédiaire clé pour générer des éclats de perspicacité pendant le stade N1. Avant la publication de l'étude de 2021 sur les mathématiques, les chercheurs ont entrepris une étude contrôlée sur le rêve, dans laquelle ils ont incité des personnes à rêver de quelque chose de spécifique, comme un arbre.

Ils ont recruté 50 personnes pour une "étude sur la sieste" de l'après-midi - intitulé qui a vraisemblablement attiré les personnes qui aiment faire la sieste, bien que les chercheurs n'aient en fait demandé qu'à la moitié des participants de dormir dans le cadre de l'étude. Alors qu'ils portaient Dormio, les participants se sont endormis et l'application liée à Dormio leur a demandé de "penser à un arbre" ou de "penser à observer leurs pensées". Une à cinq minutes plus tard, l'application les réveillait en leur demandant de raconter leur rêve. Ce cycle s'est répété pendant 45 minutes, produisant en moyenne cinq récits de rêve par personne. Les personnes à qui l'on a demandé de rester éveillées ont laissé leur esprit vagabonder tout en recevant des instructions similaires. (Les chercheurs ont créé une version simplifiée de ce protocole d'incubation de rêves, accessible sur le web, que vous pouvez essayer chez vous).

Parmi les siesteurs qui ont reçu l'instruction sur les arbres, tous sauf un ont déclaré avoir rêvé d'arbres ou de parties d'arbres, alors qu'une seule personne parmi les siesteurs ayant reçu l'instruction plus générale l'a fait. L'un d'entre eux a décrit des "arbres se divisant en une infinité de morceaux" et s'est retrouvé dans le désert avec "un chaman assis sous l'arbre avec moi".

Les participants ont ensuite passé trois tests de créativité : Ils ont écrit une histoire créative dans laquelle figurait le mot "arbre". Ils ont énuméré "toutes les utilisations alternatives créatives" qu'ils pouvaient imaginer pour un arbre. Enfin, ils ont écrit le premier verbe qui leur venait à l'esprit pour chacun des 31 noms qui se rapportaient, plus ou moins, aux arbres. La créativité des réponses a été évaluée par des personnes qui ne savaient pas qui faisait la sieste ou qui avait reçu l'invitation à parler d'un arbre. Ces évaluations ont été combinées en un indice de créativité globale.

Les personnes ayant fait la sieste et qui avaient reçu l'indice de l'arbre ont obtenu les scores de créativité les plus élevés. "Il existe un lien objectif et expérimental entre l'incubation d'un rêve spécifique et la créativité post-sommeil autour de ce sujet", explique Haar Horowitz. "Cela valide des siècles de rapports anecdotiques de personnes qui se trouvent dans l'espace créatif.

En outre, plus une personne fait référence à des arbres, plus son score de créativité est élevé. "Plus vous rêvez d'un arbre, meilleures sont vos performances ultérieures", explique Kathleen Esfahany, étudiante de premier cycle au M.I.T., qui a codirigé l'étude avec Haar Horowitz. Les personnes semblent utiliser leurs rêves pour trouver des idées pour ces tâches, ajoute Kathleen Esfahany. Par exemple, une personne ayant rêvé que son corps était en bois a écrit une histoire sur un "roi chêne" qui portait une "couronne de feuilles" et dont le corps était tantôt "en bois", tantôt "en lumière".

L'ensemble de ces données indique que le rêve pendant N1 est un ingrédient actif de la créativité, comme l'ont supposé les chercheurs. "Il s'agit d'une étude pionnière", déclare Tore Nielsen, chercheur sur le rêve à l'Université de Montréal, qui n'a pas participé à l'étude. "Personne n'a démontré expérimentalement que le fait de rêver de quelque chose au début du sommeil est en fait lié à la créativité qui s'ensuit.

Nielsen et d'autres chercheurs estiment que l'étude est de petite envergure et qu'elle doit être reproduite. En outre, les résultats des tâches de créativité individuelles (par opposition au résultat composite) n'étaient pas significativement plus élevés chez les personnes qui ont fait une sieste guidée que chez celles qui n'ont pas été guidées, explique Penny Lewis, neuroscientifique à l'université de Cardiff au Pays de Galles, qui n'a pas participé à l'étude. "Je pense que leurs données montrent de manière convaincante que le fait de passer un certain temps dans le stade 1 du sommeil - c'est-à-dire le sommeil très léger qui se produit lorsque vous vous endormez - conduit à de meilleures performances dans ces trois tâches", explique Penny Lewis. Mais l'idée "que l'incitation conduit à ces effets devrait être traitée avec prudence parce que les statistiques ne sont pas très solides".

Une mesure objective et automatisée de la créativité, nommée "distance sémantique", indiquait qu'une brève sieste favorise l'inventivité, mais qu'il n'y a pas d'avantage supplémentaire lorsqu'on ajoutait une incitation à l'idée d'un arbre. Dans cette mesure, un ordinateur évalue la similarité des paires de mots produites dans chaque tâche de créativité, une similarité moindre étant liée à une plus grande créativité. Néanmoins, cette mesure laisse entrevoir un mécanisme de stimulation de la créativité au cours de la période N1. "Elle suggère que les gens sont capables de faire des associations plus éloignées et donc de trouver des ponts [conceptuels] qu'ils n'auraient pas pu découvrir autrement", explique M. Schooler.

L'étude ne portait que sur un seul motif, impliquant un arbre, de sorte que le système doit être testé sur d'autres sujets et éventuellement utilisé pour résoudre des problèmes réels. "C'est passionnant car, en principe, il s'agit d'une technologie que les gens pourraient utiliser eux-mêmes pour stimuler leur propre créativité", explique M. Schooler.

Il semble que les personnes désireuses de l'essayer ne manquent pas. "Des gens très différents sont venus frapper à la porte du laboratoire et ont demandé à faire des rêves", déclare Haar Horowitz.

Auteur: Internet

Info: https://www.scientificamerican.com/. Par Ingrid Wickelgren, 15 mai 2023

[ subconscient ]

 

Commentaires: 0

Ajouté à la BD par miguel

autres mondes

5 700 exoplanètes… mais comment les classer ?

Les découvertes incessantes et l'extraordinaire variété des exoplanètes poussent les scientifiques à établir un classement, avec 4 catégories dominantes : les géantes gazeuses, les Neptuniennes, les super-Terres et les planètes rocheuses…

Les huit planètes qui forment notre système solaire sont loin d'être les seuls mondes à peupler la Voie lactée : elle en compterait au moins 100 milliards ! Depuis 1995, et la découverte de la première planète tournant autour d'une étoile semblable au Soleil et située hors de notre système solaire - 51 Pegasi b -, ce sont aujourd'hui près de 6 000 mondes extrasolaires qui ont été mis au jour. Au-delà de leur détection, il est désormais possible d'en connaître certaines caractéristiques : durée de l'orbite, taille, masse, composition de l'atmosphère… Autant de possibilités qui ont montré la prévalence de certains types d'exoplanètes, que l'on essaye aujourd'hui de classifier.

Ce sont les exoplanètes les plus faciles à détecter. C'est par conséquent l'une des classes les plus peuplées, puisqu'elle englobe le tiers de toutes les planètes observées. Ces planètes sont similaires à nos Jupiter et Saturne, en ce sens qu'elles n'ont pas de surfaces solides, mais qu'elles sont plutôt composées de gaz tourbillonnants (principalement de l'hélium et de l'hydrogène) au-dessus d'un noyau solide. Les géantes gazeuses extrasolaires étudiées jusqu'à présent peuvent être séparées en deux catégories distinctes : les Jupiter froids et les Jupiter chauds.

Les Jupiter froids sont des planètes géantes qui orbitent à quelques unités astronomiques de leur étoile. Pour rappel, une unité astronomique, ou UA, correspond à la distance Terre-Soleil, soit environ 150 millions de kilomètres. Ces planètes sont donc à peu près à la même distance de leur étoile que Jupiter (photo) et Saturne le sont du Soleil.

Jupiter, en plus chaud

Les Jupiter chauds, en revanche, “sont vraiment très proches de leurs étoiles, plus que Mercure ne l'est du Soleil”, compare Anne-Marie Lagrange, astrophysicienne à l'observatoire de Paris-Meudon. Toutes les premières exoplanètes à avoir été détectées autour d'étoiles de type solaire font partie de cette catégorie. Par exemple, 51 Pegasi b ne met que 4,2 jours à faire le tour de son étoile, tandis que Mercure tourne autour du Soleil en 88 jours. “Jupiter est à 5 UA du Soleil ; 51 Pegasi b est 100 fois plus proche”, complète Xavier Bonfils, chercheur à l'institut de planétologie et d'astrophysique de Grenoble. C'est justement parce qu'ils sont si proches de leur étoile que ces Jupiter sont chauds : la température de 51 Pegasi b est de 1 570 K (près de 1 300°C), contre 110 K (- 163°C) pour Jupiter. “Ces systèmes se révèlent très intéressants, parce qu'ils sont faciles à détecter. Ces planètes sont forcément différentes des géantes de notre système solaire, car elles sont perturbées par l'irradiation de leur étoile”, poursuit Anne-Marie Lagrange. Par exemple, certains de ces Jupiter chauds s'évaporent. C'est le cas de HD 209458 b, qui fait le tour de son étoile en 3,5 jours. “Les éléments les plus légers partent d'abord, et on observe que de l'hydrogène de l'atmosphère de HD 209458 b est en train de s'évaporer”, décrit la chercheuse.

Voilà pour les géantes gazeuses. Tous les autres types de planètes extrasolaires découverts à ce jour ont des densités supérieures.

Elles ont une masse comprise respectivement entre 1 et 10 fois celle de la Terre. “Assez vite, le terme de super-Terre a été proposé, rapporte Xavier Bonfils, mais ce n'est pas forcément satisfaisant, car 'super-Terre' implique que ça doit s'apparenter à la Terre, au moins en matière de composition, mais on ne savait pas si elles étaient vraiment toutes rocheuses. ” Au final, cette classe a été subdivisée en deux.

D'une part, les mini-Neptunes (image en bas à droite), qui ont un rayon inclus entre 2,4 et 3,4 fois celui de la Terre. “Ces planètes ont un noyau de glace assez important, avec une enveloppe d'hydrogène et d'hélium, et ressembleraient à de petites versions de Neptune”, illustre l'astrophysicien. D'autre part, les super-Terres, comprises entre 1 et 1,6 rayon terrestre (ci-dessus, Kepler-62 f). “Elles seraient vraiment des planètes rocheuses, mais plus grosses que la Terre.”

Migration vers l'étoile

Et entre 1,6 et 2,4 fois le rayon de la Terre ? Rien, ou presque. Ce trou est connu sous le nom de “rift subneptunien”. “Il représente une réelle absence d'exoplanètes et non un défaut d'observation, assure Remo Burn, astrophysicien à l'Institut Max-Planck, à Heidelberg, en Allemagne. Le télescope spatial Kepler, qui a cherché des exoplanètes, l'a fait pendant plus de dix ans, parfois en scrutant la même partie du ciel pendant neuf années ; on peut donc difficilement imaginer qu'il ait loupé spécifiquement les planètes comprises entre les super-Terres et les mini-Neptunes.” L'interprétation donnée a longtemps été liée au rayonnement X et UV de l'étoile centrale. Par son action, ce rayonnement expulse petit à petit l'atmosphère des planètes. Si cet argument tient la route pour les super-Terres qui tournent assez près de leur étoile, il ne permet pas d'expliquer comment il aurait pu en être de même pour les planètes plus éloignées. Récemment, grâce à des simulations numériques, Remo Burn est arrivé à une conclusion : “D'abord, certaines planètes se forment assez loin de leur étoile pour être chargées d'eau glacée. Puis, avec le temps, elles migrent vers leur étoile. Quand leur glace fond, ça crée une épaisse atmosphère de vapeur d'eau, et elles finissent par atteindre les tailles que l'on connaît des mini-Neptunes.” Le rift subneptunien s'expliquerait donc par le fait que les planètes ayant un rayon allant de 1,6 à 2,4 fois celui de la Terre voient, soit leur atmosphère éjectée par le vent stellaire et deviennent des super-Terres, soit leur glace d'eau s'évaporer et elles évoluent en mini-Neptunes.

On arrive dans cette classe si l'on augmente davantage en densité. “Parmi elles, il existe des planètes de la taille de la Terre, mais si proches de l'étoile qu'elles sont très chaudes, au point que la roche se liquéfie : ce sont les planètes de lave”, explique Xavier Bonfils. Aucune exoplanète n'a encore été proprement identifiée comme étant composée de lave. Toutefois, on répertorie de sérieuses candidates, comme CoRoT-7 b (ci-dessus, premier plan), la première exoplanète potentiellement de lave jamais détectée. Découverte en 2009 par la mission spatiale française CoRoT, CoRoT-7 b fait le tour de son étoile en 0,8 jour. De ce fait, la température observée à sa surface est extrême, et peut atteindre 2 500°C sur la partie exposée à l'étoile.

Les planètes-océans constituent un autre type d'astres denses dont on soupçonne l'existence. “Elles n'auraient pas autant d'hydrogène et d'hélium que Neptune, mais elles se seraient tout de même composées de beaucoup de glace, décrit l'astrophysicien. Puis cette glace aurait petit à petit fondu pour laisser place à de l'eau liquide.” Encore une fois, aucune découverte de planète-océan n'a été officialisée, mais des présomptions pèsent sur certaines. À commencer par GJ 1214 b, la première de ce type à avoir été détectée.

Plus surprenant également, des planètes encore plus denses que Mercure, et extrêmement riches en fer et en carbone, pourraient s'être formées à partir de résidus de supernova. Quand une étoile massive meurt, elle explose en supernova, laissant derrière elle deux choses : un astre compact, comme un pulsar, c'est-à-dire une étoile à neutrons tournant sur elle-même et émettant depuis ses pôles des jets électromagnétiques, et, alentour, tout le matériel qui constituait l'étoile massive. C'est de ce matériel que seraient façonnées ces exoplanètes plus denses que Mercure. “À cause de cette forte densité, le carbone pourrait y être comprimé au point de créer des diamants”, indique Xavier Bonfils. PSR J1719-1438 b, tournant autour d'un pulsar, est à ce jour le meilleur candidat pour être une exoplanète en diamant.

Diversité de systèmes

Quid des exoplanètes identiques aux mondes de notre système solaire ? Hormis les Jupiter froids, qui sont comme Jupiter, nos sept autres planètes semblent être à peu près absentes des systèmes planétaires que l'on connaît aujourd'hui. “C'est parce qu'on n'est pas encore capables de détecter de telles planètes, informe Anne-Marie Lagrange. Les domaines de masses et de distances à l'étoile où l'on pense trouver des planètes analogues aux nôtres n'ont tout simplement pas été explorés.” Les défis techniques se montrent encore trop grands. “L'un des enseignements les plus importants de ces recherches est de voir toute la diversité des systèmes planétaires qui existent, poursuit la spécialiste. Observer des planètes géantes orbiter tout près de leur étoile comme les Jupiter chauds, c'est complètement différent de ce que l'on imaginait il y a trente ou quarante ans. C'est pour ça que les premiers scientifiques en quête de systèmes planétaires n'y parvenaient pas, parce qu'ils voulaient en trouver des semblables aux nôtres. On ne concevait pas, à ce moment-là, une telle diversité.” Un dernier exemple : alors que dans notre système solaire, chacune des planètes évolue seule sur son orbite, il existerait ailleurs des planètes “troyennes” qui tourneraient sur la même orbite... Et on en aurait découvert autour d'une étoile : PDS 70.

30 % Géante gazeuse

La référence à Jupiter fait qu'elle est aussi appelée “géante jovienne”. Elle possède une atmosphère gazeuse très épaisse qui cache une couche inférieure liquide ou solide, autour d'un noyau solide.

31 % Super -Terre

Contrairement à ce que l'on pourrait penser, cette dénomination ne désigne pas une planète habitable comme la Terre. On nomme ainsi les planètes qui possèdent une masse entre 5 et 10 fois supérieure à celle de la Terre. Elles peuvent ne pas avoir d'atmosphère.

4 % Tellurique

De la taille de la Terre ou plus petites, elles sont composées de roche, de silicate, d'eau ou de carbone. Elles peuvent ne pas avoir d'atmosphère.

35 % Neptunienne

De taille similaire à celle de Neptune ou d'Uranus. Les mini-Neptune sont, elles, plus petites, mais plus grosses que la Terre. Toutes possèdent un noyau rocheux et une atmosphère extérieure dominée par l'hélium et l'hydrogène.







Auteur: Internet

Info: https://www.science-et-vie.com/, 7 Mar 2025 , EVRARD-OUICEM ELJAOUHARI

[ extrasolaires ] [ systèmes circumstellaires ] [ taxonomie ] [ territoires inconnus ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

surnaturel

Les scientifiques ont-ils finalement démontré des phénomènes psychiques ? De nouvelles études montrent que les gens peuvent prévoir des événements futurs.
Dans "au travers du miroir" de Lewis Carroll, la reine blanche dit a Alice que dans son pays, la mémoire travaille dans deux sens. Non seulement la reine peut se rappeler de choses du passé, mais elle se rappelle également de "choses qui se produiront la semaine d'après." Alice essaye de discuter avec la reine, énonçant : "je suis sûr que la mienne ne va que dans un sens... je ne peut me rappeler de choses avant qu'elles ne se produisent." La reine répond, "c'est une sorte de faiblesse, si ta mémoire ne fonctionne qu'en arrière."
Combien nos vies seraient meilleures si nous pouvions vivre dans le royaume de la reine blanche, où notre mémoire travaillerait en arrière et en avant. Dans un tel monde, par exemple, on pourrais faire un examen et étudier après coup pour s'assurer qu'on l'a bien réussi dans le passé. Bon, la bonne nouvelle est que selon une série récente d'études scientifiques de Daryl Bem, nous vivons déjà dans pareil monde !
Le Dr.Bem, psychologue social à l'université de Cornell, a entrepris une série d'études qui seront bientôt publiées dans un des journaux de psychologie les plus prestigieux. Au travers de neuf expériences, Bem a examiné l'idée que notre cerveau a la capacité de réfléchir non seulement sur des expériences antérieures, mais peut également en prévoir de futures. Cette capacité de "voir" est souvent désignée comme phénomène psi.
Bien que des recherches antérieures aient été conduites sur de tel phénomènes - nous avons tous vu ces films où des personnes regardent fixement des cartes de Zener avec une étoile ou des lignes ondulées dessus - de telles études n'arrivent pas vraiment à atteindre le statut seuil "de recherche scientifique." Les études de Bem sont uniques du fait qu'elles présentent des méthodes scientifiques standard et se fondent sur des principes bien établis en psychologie. Cela donne essentiellement des résultats qui sont considérés comme valides et fiables en psychologie. Par exemple, l'étude améliore la mémoire, et facilite le temps de réponse - mais ici on inverse simplement l'ordre chronologique.
Par exemple, nous savons tous que répéter un ensemble de mots rend plus facile le fait de s'en souvenir dans l'avenir, mais si la répétition se produit après le rappel ?... Dans une des études, on a donné une liste de mots à lire à des étudiants et, après lecture de la liste, on les a confrontés à un test surprise pour voir de combien de mots ils se rappelaient. Ensuite, un ordinateur a aléatoirement choisi certains des mots sur la liste et on a demandé aux participants de les retaper plusieurs fois à la machine. Les résultats de l'étude ont montré que les étudiants étaient meilleurs pour se remémorer les mots apparus dans l'exercice qui avait suivi, donné par surprise et fait au hasard. Selon Bem, la pratique de ces mots après le test a permis d'une façon ou d'une autre aux participants "de revenir en arrière dans le temps pour faciliter le souvenir."
Dans une autre étude, Bem examiné si l'effet bien connu d'amorçage pouvait également être inversé. Dans une étude typique d'amorçage, on montre à des gens une photo et ils doivent rapidement indiquer si la photo représente une image négative ou positive. Si la photo est un chaton câlin, on appuie sur le bouton "positif" et si la photo représente des larves sur de la viande en décomposition, on appuie sur le bouton "négatif". Une recherche de masse a montré combien l'amorçage subliminal peut accélérer la capacité à classer ces photos. L'amorçage subliminal se produit quand un mot est clignoté sur l'écran tellement rapidement que le cerveau conscient ne l'identifie pas, mais le cerveau inconscient le fait. Ainsi on voit juste un flash, et si on vous demande de dire ce que vous avez vu, vous ne pouvez pas. Mais, profondément, votre cerveau inconscient a vu le mot et l'a traité. Dans l'étude d'amorçage, on constate uniformément que les gens qui s'amorcent avec un mot conformé à la valence de la photo la classeront par catégorie plus vite. Ainsi si on clignote rapidement le mot "heureux" avant l'image de chaton, la personne cliquera le bouton "positif" encore plus vite, mais on clignote à la place le mot "laid" avant, la personne prendra plus longtemps pour répondre. C'est parce que l'amorçage avec le mot "heureux" fait que l'esprit de la personne est prêt à recevoir un truc heureux.
Dans l'étude rétroactive d'amorçage de Bem, on a simplement inversé l'ordre du temps, faisant clignoter le mot amorcé après que la personne ait classé la photo. Ainsi on montre l'image du chaton, la personne sélectionne si elle est positive ou négative, et alors on choisit aléatoirement d'amorcer avec un bon ou mauvais mot. Les résultats ont prouvé que les gens sont plus rapides à classer des photos par catégorie quand elle était suivie d'un mot amorce cohérent. A tel point que non seulement le fait qu'on classe le chaton plus vite quand il est précédé par un bon mot, on le classera également plus vite par catégorie si il est suivit du bon mot après coup. C'est comme si, alors que les participants classaient la photo, leur cerveau savait quel mot viendrait après, qui facilite leur décision.
Voilà juste deux exemples des études que Bem conduit, mais les autres ont montrés des effets "rétroactifs" semblables. Les résultats suggèrent clairement que des gens moyens "non psychiques" semblent pouvoir prévoir des événement futurs.
La question qu'on peut se poser est "quel est l'ordre de grandeur de la différence ?" Ce fait d'étudier un essai après qu'il se soit produit, ou l'amorçage qu'on a eu avec un mot après avoir classé la photo donne un changement énorme, ou est-ce juste une légère bosse dans les statistiques ? Quelle est la taille de effet ?. Il est vrai que les tailles d'effet dans les études de Bem sont petites (par exemple, seulement légèrement plus grandes que la chance). Mais il y a plusieurs raisons pour lesquelles nous ne devons pas négliger ces résultats basés sur de petites, mais fortement conformées, tailles d'effet.
Tout d'abord, au travers ses études, Bem a constaté que certaines personnes ont des résultats plus forts que d'autres. En particulier les gens en grande quête de stimulus - aspect d'extraversion où les gens répondent plus favorablement aux nouveau stimulus. Pour des différences de l'ordre d'environ deux fois plus d'efficacité qu'une personne moyenne. Ceci suggère que des gens sont plus sensibles aux effets psi que d'autres.
Deuxièmement ces petites tailles d'effet ne sont pas rare en psychologie (et pour d'autres sciences). Par exemple la moyenne les études de Bem eut pour résultat des tailles d'effets assez petites, mais tout aussi grandes - ou plus grandes - que certains effets bien établis : lien entre l'aspirine et l'empêchement de crise cardiaque, prise de calcium et os améliorés, fumée et cancer du poumon, utilisation de condom et protection du HIV, etc.... Cohen précise que de telles tailles d'effet se produisent plus facilement quand on est dans les premiers stades d'exploration d'une matière, quand les scientifiques commencent juste à découvrir pourquoi l'effet se produit et quand il est le plus susceptible de se produire.
Ainsi si nous prenons ces phénomènes psi comme vrai, comment pouvons nous alors les expliquer sans jeter à la poubelle notre compréhension du temps et de la physique ? Bon, la vérité est que ces effets ressemblent vraiment beaucoup à ce que la physique moderne dit du temps et de l'espace. Par exemple, Einstein a cru que le seul acte d'observer quelque chose pouvait affecter cette chose là, phénomène qu'il appela "spooky action à distance."
De même, la physique quantique moderne a démontré que les particules légères semblent savoir ce qui se trouve en avant d'elles dans le temps et qu'elles ajusteront leur comportement en conséquence, quoique le futur événement ne se soit pas produit encore. Par exemple dans l'expérience classique "de la double fente" les physiciens ont découvert que les particules légères répondent différemment si elles sont observées. Mais en 1999, les chercheurs ont poussé cette expérience plus loin en se demandant "ce qui se produirait si l'observation avait lieu après que les particules légères aient été déployées. "Tout à fait curieusement, ils ont démontré que les particules agissaient de la même manière, comme si elles savaient qu'elles seraient observées plus tard..." même si cela ne s'était pas encore produit.
De tels effets, "dingues", avec le temps semblent contredire le bon sens et essayer de les comprendre peut donner un sacré mal de tête. Mais les physiciens ont simplement appris à l'accepter. Comme disait une fois le Dr. Chiao, physicien de Berkeley, au sujet de la mécanique quantique, "c'est complètement contre intuitif et extérieur à notre expérience journalière, mais nous (les physiciens) y sommes habitués"
Ainsi, alors que les humains perçoivent le temps comme linéaire, cela ne signifie pas nécessairement qu'il en soit ainsi. Donc, en tant que bons scientifiques, nous ne devrions pas nous laisser influencer par les préjugés sur ce que nous étudions, même si ces idées préconçues reflètent nos idées de base sur la façon dont le temps et l'espace fonctionnent.
Le travail du DR. Bem est un provocation pour la pensée, et comme toute science révolutionnaire est censée faire, il apporte plus de questions que de réponses. Si nous mettons entre parenthèses nos croyances sur le temps et acceptons que le cerveau est capable d'une prise sur le futur, la prochaine question est : comment le fait-il ?. Ce n'est pas parce que l'effet semble "surnaturel" que cela signifie que la cause le soit. Beaucoup de découvertes scientifiques furent considérées comme exotiques par le passé, convenant davantage à la science-fiction (par exemple : la terre est ronde, il y a des organismes microscopiques, etc...). Une recherche future est nécessaire pour explorer les causes exactes des effets de ces études
Comme beaucoup de nouvelles explorations en science, les résultats de Bem peuvent avoir un effet profond sur ce que nous savons et avons accepté comme "vrai". Mais pour certains d'entre vous, peut-être que ces effets ne sont pas une si grande surprise, parce que quelque part, profondément à l'intérieur, nous savons déjà que nous en aurions connaissance aujourd'hui !

Auteur: Internet

Info: Fortean Times, Octobre 11, 2010

[ sciences ] [ prémonition ]

 
Mis dans la chaine

Commentaires: 0

médiation énactionnelle

On vous expose ici l’émergence d’un nouveau paradigme de l’hérédité, où le père ne transmettrait pas seulement des gènes, mais aussi une mémoire moléculaire de son mode de vie via des ARN contenus dans les spermatozoïdes.​

Renversement du récit classique de l’hérédité

Le récit canonique " spermatozoïde = paquet d’ADN + flagelle " est remis en cause par près de vingt ans de travaux montrant que les gamètes paternels véhiculent des molécules " passagères clandestines ", en particulier des ARN, qui pénètrent dans l’ovocyte et modulent l’activité du génome embryonnaire. Ces ARN reflètent l’état physiologique du père (alimentation, exercice, stress, exposition à des toxiques) dans les semaines ou mois précédant la conception, et semblent pouvoir influencer le développement et la santé de la descendance.​

Les données, principalement obtenues chez la souris, suggèrent qu’il existe une voie d’hérédité non génétique, où des traits acquis (ou du moins des états physiologiques) sont encodés dans des profils d’ARN spermatiques et transmis aux enfants, voire aux petits‑enfants. Les chercheurs restent toutefois prudents : la robustesse du phénomène est désormais bien soutenue, mais les mécanismes précis par lesquels ces ARN parviennent à reprogrammer l’embryon demeurent largement énigmatiques.​

Cadre épigénétique et rôle des ARN

L’article resitue ces résultats dans le cadre plus général de l’épigénétique, entendue comme l’ensemble des processus qui modulent l’expression des gènes sans altérer la séquence d’ADN, par des marques chimiques (méthylations, acétylations), des remodelages de la chromatine ou l’action d’ARN régulateurs. De telles régulations expliquent qu’un même génome puisse engendrer des types cellulaires radicalement différents (neurones, hépatocytes, kératinocytes, etc.), sous l’effet de signaux internes ou environnementaux (carence alimentaire, stress, variations hormonales).​

Longtemps jugés trop fugaces pour constituer des supports de mémoire biologique, les ARN se révèlent capables, pour certains, de persister plusieurs semaines et d’orchestrer de puissants programmes d’expression génique. Les longs ARN non codants (lncRNA) agissent sur la chromatine et l’ADN, tandis que les microARN répriment d’autres ARN messagers et donc, indirectement, la synthèse protéique — une fonction dont la découverte a valu le Nobel de physiologie ou médecine en 2024. L’hypothèse directrice devient alors : des ARN régulateurs, embarqués dans le spermatozoïde, peuvent intervenir au moment critique de la fécondation et des premières divisions pour infléchir durablement le destin de l’embryon.​

Trois questions centrales et les travaux de Qi Chen

Les biologistes structurent ce nouveau champ autour de trois questions : comment l’expérience vécue du père (régime, stress, exercice, toxiques) est-elle encodée en signaux moléculaires ? comment ces signaux pénètrent‑ils les spermatozoïdes ? et comment, enfin, deviennent‑ils des vecteurs épigénétiques capables de façonner des phénotypes observables chez la descendance ?​

Les travaux de Qi Chen apportent des éléments de réponse à chacune de ces étapes. À partir de 2012, son équipe séquence les ARN courts présents dans les spermatozoïdes de souris et découvre qu’un sous‑ensemble d’ARN augmente massivement au cours de la maturation, s’accumulant dans la tête du spermatozoïde au voisinage de l’ADN, et qu’on retrouve cette même classe d’ARN dans le sérum sanguin de nombreux vertébrés, du poisson à l’humain. Lorsque des mâles sont soumis à un régime riche en graisses, leur profil d’ARN spermatiques se transforme profondément ; injectés dans un zygote, ces ARN suffisent à faire apparaître chez les descendants mâles des troubles métaboliques caractéristiques d’un régime gras.​

Chen formule alors une hypothèse audacieuse : certains traits acquis lors d’expositions paternelles seraient " mémorisés " dans le sperme sous forme de combinaisons d’ARN — un " code ARN du sperme " qui pré‑programme la santé métabolique des enfants. En 2019, il propose explicitement cette notion de " sperm RNA code " comme nouvelle voie d’hérédité, parallèle aux séquences d’ADN, mais centrée sur des signatures d’expression génique et métabolique.​

L’épididyme comme " capteur du monde "

En parallèle, Oliver Rando et ses collègues s’intéressent à la topologie de ce code : où, dans le corps, les ARN pertinents sont‑ils sélectionnés, modifiés et acheminés vers les gamètes ? Ils montrent que les spermatozoïdes acquièrent presque tous leurs petits ARN au cours de leur passage dans l’épididyme, long conduit accolé au testicule où ils mûrissent pendant une à deux semaines avant de devenir fécondants.​

Dans cette structure, des vésicules extracellulaires de la taille de virus — les épididymosomes — chargent les spermatozoïdes en ARN en provenance des cellules somatiques environnantes. Rando y voit un véritable " capteur du monde ", capable d’intégrer des signaux sur le régime alimentaire, l’exercice ou l’exposition à des toxiques puis de convertir ces informations en profils d’ARN transférés au sperme. L’épididyme apparaît ainsi comme un organe clé des " effets paternels ", dialoguant avec l’environnement pour ajuster la composition moléculaire des gamètes.​

Cette vision est étendue par les travaux d’Isabelle Mansuy, qui étudie la transmission transgénérationnelle des effets du stress traumatique. Ses recherches se concentrent sur les vésicules extracellulaires circulant dans le sang, émises par la plupart des types cellulaires, y compris celles issues de l’épididyme, qui transportent ARN, protéines, lipides et métabolites et peuvent franchir les membranes de nombreuses cellules, jusqu’aux cellules germinales.​

Stress, métabolisme et vésicules extracellulaires

En soumettant des souris jeunes à des stress sévères (conten­tion, séparation maternelle), Mansuy met en évidence des altérations profondes des voies métaboliques, notamment lipidique, chez les mâles exposés et leur progéniture. Chez la souris, certaines de ces modifications métaboliques restent détectables sur cinq générations, ce qui constitue un exemple rare d’hérédité épigénétique documentée à si long terme. Elle observe par ailleurs des profils métaboliques similaires chez des humains ayant subi un stress intense durant l’enfance, suggérant une possible convergence des mécanismes.​

Dans un préprint de mars 2025, son équipe montre que, chez la souris, des vésicules extracellulaires sanguines peuvent transporter des ARN, métabolites et lipides associés au stress précoce jusqu’aux spermatozoïdes, y imprimant des signatures caractéristiques. Les descendants issus de ces spermatozoïdes présentent à l’âge adulte des dysfonctionnements métaboliques liés au stress, et leurs propres ARN spermatiques portent à leur tour les marques de cette exposition ancestrale. Les auteurs y voient un lien mécanistique entre modifications d’ARN spermatique et traits phénotypiques chez la descendance, tout en rappelant que ces résultats doivent encore être validés par l’évaluation par les pairs.​

De l’ARN du sperme au phénotype

Reste la question la plus délicate : comment une quantité infime de molécules, apportées par un spermatozoïde minuscule à un ovocyte gigantesque, peut‑elle influencer durablement les traits d’un adulte ? Des expériences de " transfert d’ARN " fournissent un premier indice : on extrait tous les ARN du sperme de souris soumises à des conditions extrêmes (stress, régime particulier, etc.), puis on les injecte dans des zygotes naïfs ; les souriceaux qui naissent manifestent alors, dans une large mesure, les phénotypes du père initial (troubles métaboliques, altérations comportementales, etc.).​

Les travaux de Colin Conine, publiés en 2024, montrent que des microARN spermatiques modifient l’expression génique dans l’embryon de souris aux stades précoces, fournissant une preuve directe que ces " passagers " non génétiques peuvent intervenir dans l’orchestration des premiers programmes de développement. L’idée qui se dessine est celle d’une cascade : une poignée de microARN et d’autres ARN, introduits par le spermatozoïde, reconfigurent finement les réseaux d’expression génique dans le zygote, ce qui, dans le contexte hautement plastique du développement précoce, peut suffire à infléchir la trajectoire de différenciation des tissus et, à terme, les caractéristiques de l’adulte.​

L’exemple de l’exercice physique et les microARN mitochondriaux

Un article récent de Cell Metabolism (novembre 2025) illustre cette logique en se concentrant sur les bénéfices de l’exercice paternel et leur transmission aux descendants. Chez la souris, des femelles fécondées par des mâles entraînés donnent naissance à une progéniture présentant une endurance accrue et un métabolisme amélioré ; l’étude relie ces traits à un ensemble précis de microARN spermatiques ciblant des gènes critiques pour le fonctionnement mitochondrial et le contrôle métabolique dans l’embryon.​

Les chercheurs montrent que les spermatozoïdes de mâles sportifs contiennent davantage de ces microARN que ceux de mâles sédentaires, et que la simple injection de ces microARN dans des zygotes suffit à produire, chez les adultes, des muscles squelettiques plus riches en mitochondries et des performances d’endurance supérieures. Mécaniquement, ces microARN répriment une protéine spécifique, ce qui libère une série de gènes liés à l’activité mitochondriale et au métabolisme, dessinant une chaîne causale allant de l’entraînement du père à la physiologie musculaire des enfants.​

Fait notable, les spermatozoïdes d’hommes physiquement entraînés présentent eux aussi des niveaux plus élevés de plusieurs de ces mêmes microARN que ceux d’hommes non entraînés, suggérant une conservation inter‑espèces de cette signature moléculaire de l’exercice. Sans constituer une preuve directe chez l’humain, cette convergence ouvre la possibilité d’adaptations intergénérationnelles à l’exercice physique, modulées par les ARN spermatique.​

Une " première ébauche " de théorie et ses limites

L’ensemble de ces résultats dessine ce que les chercheurs décrivent comme une " première ébauche " d’une nouvelle théorie de l’hérédité paternelle, dans laquelle l’épididyme " voit " le monde, ajuste en réponse ses productions d’ARN, puis expédie ces signaux aux spermatozoïdes qui les livrent à l’ovocyte. Ces ARN, une fois dans l’embryon, déclencheraient une cascade de modifications de l’expression génétique qui, à partir d’un apport moléculaire minime, suffirait à modeler la santé et la maladie de la descendance.​

Les chercheurs insistent toutefois sur le caractère lacunaire de ce tableau : les étapes ne sont pas encore reliées de manière continue dans un même modèle expérimental, les rôles exacts des différents types d’ARN et d’autres facteurs épigénétiques dans le zygote restent obscurs, et la transposition de ces résultats de la souris à l’humain est loin d’être acquise. Comme le formule Chen, ils sont encore " des aveugles décrivant pour la première fois différentes parties du même éléphant ", l’hypothèse la plus plausible étant un mécanisme orchestré, combinant code ARN du sperme et autres facteurs non encore élucidés.​

La confirmation de ces phénomènes chez l’humain exigerait des suivis multigénérationnels de grande ampleur, contrôlant finement régimes, niveaux d’exercice, expositions environnementales et vieillissement, tout en décodant l’ensemble des molécules embarquées dans les spermatozoïdes et en les corrélant à des phénotypes cliniques robustes. Tant qu’un tel corpus n’existe pas, il serait prématuré d’en déduire des recommandations médicales ; mais si ces pistes se confirment, elles imposeront de reconsidérer profondément ce que signifie " préparer " l’avenir de ses enfants, jusque dans le mode de vie des pères avant la conception.​



Auteur: Internet

Info: https://www.quantamagazine.org, Ivan Amato, 22 décembre 2025

[ signal B différé ] [ pré-inscription asynchrone ] [ décalage temporel ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

Des informaticiens prouvent que la chaleur détruit l'intrication quantique

En concevant un nouvel algorithme quantique, quatre chercheurs ont accidentellement établi une limite stricte au phénomène " effrayant ".

Il y a près d'un siècle, le physicien Erwin Schrödinger a attiré l'attention sur une particularité du monde quantique qui fascine et agace les chercheurs depuis lors. Lorsque des particules quantiques telles que les atomes interagissent, elles abandonnent leur identité individuelle au profit d'un état collectif plus grand et plus étrange que la somme de ses parties. Ce phénomène est appelé intrication.

Les chercheurs ont une bonne compréhension du fonctionnement de l’intrication dans des systèmes idéalisés contenant seulement quelques particules. Mais le monde réel est plus compliqué. Dans de grands ensembles d’atomes, comme ceux qui composent la matière que nous voyons et touchons, les lois de la physique quantique entrent en compétition avec les lois de la thermodynamique, et les choses se compliquent.

À très basse température, l'intrication peut se propager sur de longues distances, enveloppant de nombreux atomes et donnant lieu à d'étranges phénomènes tels que la supraconductivité . Mais si la température augmente, les atomes s'agitent, perturbant les liens fragiles qui unissent les particules intriquées.

Les physiciens ont longtemps lutté pour comprendre les détails de ce processus. Aujourd'hui, une équipe de quatre chercheurs a prouvé que cette intrication ne s'affaiblit pas seulement lorsque la température augmente. En fait, dans les modèles mathématiques de systèmes quantiques tels que les réseaux d'atomes dans les matériaux physiques, il existe toujours une température spécifique au-dessus de laquelle elle disparaît complètement. « Ce n'est pas seulement qu'elle est exponentiellement petite », a déclaré Ankur Moitra(ouvre un nouvel onglet)du Massachusetts Institute of Technology, l'un des auteurs du nouveau résultat. " C'est zéro. "

Les chercheurs avaient déjà observé des signes de ce comportement et l’avaient surnommé la " mort subite d'intrication. Mais leurs preuves ont toujours été indirectes. La nouvelle découverte, au contraire, a la force d'une preuve mathématique. Elle établit l'absence d'intrication d'une manière beaucoup plus complète et rigoureuse.

Curieusement, les quatre chercheurs à l'origine de ce nouveau résultat ne sont même pas des physiciens et n'avaient pas pour objectif de prouver quoi que ce soit à propos de l'intrication. Ce sont des informaticiens qui ont découvert cette preuve par hasard en développant un nouvel algorithme.

Quelle que soit leur intention, les résultats ont enthousiasmé les chercheurs du domaine. « C'est une déclaration très, très forte », a déclaré Soonwon Choi, physicien au MIT. " J’ai été très impressionné. ".

Trouver l'équilibre

L’équipe a fait sa découverte en explorant les capacités théoriques des futurs ordinateurs quantiques – des machines qui exploiteront le comportement quantique, notamment l’intrication et la superposition, pour effectuer certains calculs bien plus rapidement que les ordinateurs conventionnels que nous connaissons aujourd’hui.

L'une des applications les plus prometteuses de l'informatique quantique est l'étude de la physique quantique elle-même. Imaginons que vous souhaitiez comprendre le comportement d'un système quantique. Les chercheurs doivent d'abord développer des procédures spécifiques, ou des algorithmes, que les ordinateurs quantiques peuvent utiliser pour répondre à vos questions.

Mais toutes les questions sur les systèmes quantiques ne sont pas faciles à résoudre à l’aide d’algorithmes quantiques. Certaines sont tout aussi faciles à résoudre pour les algorithmes classiques, qui fonctionnent sur des ordinateurs ordinaires, tandis que d’autres sont difficiles à résoudre à la fois pour les algorithmes classiques et quantiques.

Pour comprendre dans quels domaines les algorithmes quantiques et les ordinateurs qui peuvent les exécuter pourraient présenter un avantage, les chercheurs analysent souvent des modèles mathématiques appelés systèmes de spin, qui capturent le comportement de base de réseaux d’atomes en interaction. Ils peuvent alors se demander : que fera un système de spin si vous le laissez tranquille à une température donnée ? L’état dans lequel il se stabilise, appelé état d’équilibre thermique, détermine bon nombre de ses autres propriétés. Les chercheurs cherchent donc depuis longtemps à développer des algorithmes permettant de trouver des états d’équilibre.

La question de savoir si ces algorithmes bénéficient réellement de leur nature quantique dépend de la température du système de spin en question. À des températures très élevées, les algorithmes classiques connus peuvent facilement faire le travail. Le problème devient plus difficile à mesure que la température diminue et que les phénomènes quantiques s'intensifient ; dans certains systèmes, il devient trop difficile pour les ordinateurs quantiques de résoudre le problème dans un délai raisonnable. Mais les détails de tout cela restent obscurs.

Des scientifiques trouvent un moyen rapide de décrire les systèmes quantiques

" Quand allez-vous dans l'espace où vous avez besoin du quantique, et quand allez-vous dans l'espace où le quantique ne vous aide même pas ? " a déclaré Ewin Tang, chercheur à l’Université de Californie à Berkeley et l’un des auteurs des nouveaux résultats. " On ne sait pas grand-chose. "

En février, Tang et Moitra ont commencé à réfléchir au problème de l'équilibre thermique avec deux autres informaticiens du MIT : un chercheur postdoctoral nommé Ainesh Bakshi et l'étudiant diplômé de Moitra, Allen Liu. En 2023, ils ont tous collaboré sur un algorithme quantique révolutionnaire pour une tâche différente impliquant des systèmes de spin, et ils cherchaient un nouveau défi.

" Quand nous travaillons ensemble, les choses se passent naturellement ", a déclaré Bakshi. " C'est génial. "

Avant cette percée de 2023, les trois chercheurs du MIT n’avaient jamais travaillé sur les algorithmes quantiques. Ils avaient une formation en théorie de l’apprentissage, un sous-domaine de l’informatique qui se concentre sur les algorithmes d’analyse statistique. Mais comme tous les jeunes ambitieux du monde, ils considéraient leur relative naïveté comme un avantage, une façon de voir un problème avec un œil neuf. " L’une de nos forces est que nous ne connaissons pas grand-chose au quantique ", a déclaré Moitra. " Le seul quantique que nous connaissons est celui qu’Ewin nous a enseigné. "

L'équipe a décidé de se concentrer sur les températures relativement élevées, où les chercheurs soupçonnaient l'existence d'algorithmes quantiques rapides, même si personne n'avait pu le prouver. Assez rapidement, ils ont trouvé un moyen d'adapter une ancienne technique de la théorie de l'apprentissage à un nouvel algorithme rapide. Mais alors qu'ils rédigeaient leur article, une autre équipe est arrivée à un résultat similaire :une preuve qu'un algorithme prometteur développé l'année précédente fonctionnerait bien à des températures élevées. Ils avaient été récupérés.

La mort subite renaît

Un peu déçus d'être arrivés deuxièmes, Tang et ses collaborateurs ont commencé à correspondre avec Álvaro Alhambra, physicien à l'Institut de physique théorique de Madrid et l'un des auteurs de l'article concurrent. Ils voulaient déterminer les différences entre les résultats obtenus indépendamment. Mais lorsque Alhambra a lu une version préliminaire de la preuve des quatre chercheurs, il a été surpris de découvrir qu'ils avaient prouvé autre chose dans une étape intermédiaire : dans tout système de spin en équilibre thermique, l'intrication disparaît complètement au-dessus d'une certaine température. " Je leur ai dit : ¨- Oh, c'est très, très important" , a déclaré Alhambra.

L’équipe a rapidement révisé son projet pour mettre en évidence le résultat accidentel. " Il s’avère que cela ne cadre pas avec notre algorithme ", a déclaré Moitra. " Nous obtenons plus que ce que nous avions prévu. "

Les chercheurs avaient observé cette mort soudaine de l'intrication depuis la fin des années 2000, dans des expériences et des simulations sur des ordinateurs classiques ordinaires. Mais aucun de ces travaux antérieurs n'avait permis de mesurer directement la disparition de l'intrication. Ils n'avaient également étudié le phénomène que dans des petits systèmes, qui ne sont pas les plus intéressants.

" Il se pourrait que pour des systèmes de plus en plus grands, il faille monter à des températures de plus en plus élevées pour constater l’absence d’intrication ", a déclaré Alhambra. Dans ce cas, le phénomène de mort subite pourrait se produire à des températures si élevées qu’il ne serait pas pertinent dans les matériaux réels. Au lieu de cela, Tang et ses collaborateurs ont montré que la température à laquelle l’intrication disparaît ne dépend pas du nombre total d’atomes dans le système. La seule chose qui compte, ce sont les détails des interactions entre les atomes proches.

L’approche utilisée pour leur démonstration était elle-même inhabituelle. La plupart des algorithmes de recherche d’états d’équilibre thermique s’inspirent de la façon dont les systèmes physiques réels abordent l’équilibre. Mais Tang et son équipe ont utilisé des techniques très éloignées de la théorie quantique.

" C’est ce qui est si étonnant dans ce document ", a déclaré Nikhil Srivastava, informaticien à Berkeley. " La preuve ignore en quelque sorte la physique. "

La recherche continue

La preuve apportée par les quatre chercheurs que les systèmes de spin à haute température ne présentent aucune intrication permet d'expliquer une autre caractéristique intéressante de leur nouvel algorithme : très peu de ces données sont réellement quantiques. Certes, le résultat de l'algorithme (une description complète de la manière dont les atomes d'un système de spin sont orientés en équilibre thermique) est trop difficile à stocker sur une machine classique. Mais à part la dernière étape qui génère ce résultat, chaque partie de l'algorithme est classique.

" Il s’agit essentiellement du calcul quantique le plus trivial ", a déclaré Liu.

Tang a un long historique de découverte de résultats de " déquantification " - des preuves que les algorithmes quantiques ne sont pas réellement nécessaires pour de nombreux problèmes. Elle et ses collaborateurs n’ont pas essayé de faire cela cette fois-ci, mais la preuve de l’intrication évanouissante qu’ils ont trouvée équivaut à une version encore plus extrême de la déquantification. Ce n’est pas seulement que les algorithmes quantiques n’offrent aucun avantage dans un problème spécifique impliquant des systèmes de spin à haute température - il n’y a absolument rien de quantique dans ces systèmes.

Mais cela ne signifie pas que les chercheurs en informatique quantique doivent perdre espoir. Deux études récentes ont identifié des exemples de systèmes de spin à basse température dans lesquels les algorithmes quantiques de mesure des états d'équilibre sont plus performants que les algorithmes classiques, même s'il reste à déterminer dans quelle mesure ce comportement est répandu. Et même si Bakshi et ses collaborateurs ont obtenu un résultat négatif, la méthode peu orthodoxe qu'ils ont utilisée pour y parvenir indique que de nouvelles idées fructueuses peuvent surgir d'endroits inattendus.

" Nous pouvons être optimistes quant à la découverte de nouveaux algorithmes fous ", a déclaré Moitra. " Et ce faisant, nous pourrons découvrir de magnifiques mathématiques. "

Auteur: Internet

Info: https://www.quantamagazine.org/, ParBen Brubaker, 28 août 2024

[ sérendipité ] [ seuil ] [ rupture ] [ frontière ] [ dissipation ] [ désagrégation ] [ désenchevêtrèrent ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sémantique artificielle

Pour la première fois, des modèles d'IA analysent le langage aussi bien qu'un expert humain.

Si le langage est ce qui nous rend humains, que signifie le fait que les grands modèles de langage aient acquis des capacités " métalinguistiques " ?

Parmi la myriade de capacités humaines, lesquelles sont propres à l'espèce humaine ? Le langage figure parmi les principaux candidats depuis au moins Aristote, qui écrivait que l'humanité était " l'animal qui possède le langage ". Même si de grands modèles de langage comme ChatGPT reproduisent superficiellement la parole ordinaire, les chercheurs cherchent à savoir s'il existe des aspects spécifiques du langage humain qui n'ont tout simplement aucun équivalent dans les systèmes de communication des autres animaux ou des dispositifs dotés d'intelligence artificielle.

Les chercheurs se sont notamment intéressés à la capacité des modèles de langage à raisonner sur le langage lui-même. Pour certains linguistes, ces modèles sont non seulement dépourvus de capacités de raisonnement, mais en sont tout simplement incapables. Ce point de vue a été résumé par Noam Chomsky, linguiste de renom, et deux co-auteurs en 2023, dans un article du New York Times. Selon ces chercheurs, " les explications correctes du langage sont complexes et ne peuvent être apprises simplement en se baignant dans des volumes massifs de données ". Les modèles d'IA peuvent être habiles à utiliser le langage, ont-ils affirmé, mais ils ne sont pas capables de l'analyser de manière sophistiquée.

Ce point de vue a été contesté dans un article récent par Gašper Beguš, linguiste à l'Université de Californie à Berkeley ; Maksymilian Dąbkowski, qui a récemment obtenu son doctorat en linguistique à Berkeley ; et Ryan Rhodes. Des chercheurs de l'Université Rutgers ont soumis plusieurs grands modèles de langage (LLM) à une série de tests linguistiques, notamment en demandant à l'un d'eux de généraliser les règles d'une langue inventée. Si la plupart des LLM n'ont pas réussi à analyser les règles linguistiques comme le font les humains, l'un d'eux a démontré des capacités impressionnantes, dépassant largement les attentes. Il était capable d'analyser le langage de manière quasi identique à celle d'un étudiant de master en linguistique : schématisation des phrases, résolution des ambiguïtés et utilisation de mécanismes linguistiques complexes tels que la récursivité. Cette découverte, explique Beguš, " remet en question notre compréhension des capacités de l'IA ".

Ce nouvel ouvrage est à la fois opportun et " très important ", a déclaré Tom McCoy. Un linguiste informaticien de l'université de Yale, qui n'a pas participé à ces recherches, a déclaré : " À mesure que la société devient plus dépendante de cette technologie, il est crucial de comprendre ses points forts et ses limites. " L'analyse linguistique, a-t-il ajouté, constitue le terrain d'expérimentation idéal pour évaluer dans quelle mesure ces modèles de langage peuvent raisonner comme des humains.

Complexité infinie

L'un des défis liés à l'évaluation linguistique rigoureuse des modèles de langage est de s'assurer qu'ils ne connaissent pas déjà les réponses. Ces systèmes sont généralement entraînés sur d'énormes quantités d'informations écrites : non seulement la majeure partie d'Internet, dans des dizaines voire des centaines de langues, mais aussi des ouvrages de linguistique tels que des manuels. En théorie, les modèles pourraient simplement mémoriser et restituer les informations qui leur ont été fournies lors de leur entraînement.

Pour éviter cet écueil, Beguš et ses collègues ont créé un test linguistique en quatre parties. Trois de ces parties consistaient à demander au modèle d'analyser des phrases spécialement conçues à l'aide de diagrammes arborescents, introduits pour la première fois dans l'ouvrage de référence de Chomsky, *Structures syntaxiques* , paru en 1957. Ces diagrammes décomposent les phrases en groupes nominaux et groupes verbaux, puis les subdivisent en noms, verbes, adjectifs, adverbes, prépositions, conjonctions, etc.

Une partie du test portait sur la récursivité, c'est-à-dire la capacité à imbriquer des phrases. " Le ciel est bleu " est une phrase simple en anglais. " Jane a dit que le ciel est bleu " imbrique la phrase initiale dans une phrase légèrement plus complexe. Il est important de noter que ce processus de récursivité peut se poursuivre indéfiniment : " Maria s'est demandée si Sam savait qu'Omar avait entendu que Jane avait dit que le ciel est bleu " est également une phrase récursive grammaticalement correcte, bien que maladroite.

La récursivité a été qualifiée par Chomsky et d'autres de caractéristique fondamentale du langage humain, voire, peut-être, de caractéristique fondamentale de l'esprit humain. Les linguistes ont avancé que son potentiel illimité confère aux langues humaines leur capacité à générer une infinité de phrases possibles à partir d'un vocabulaire et d'un ensemble de règles finis. À ce jour, aucune preuve convaincante n'atteste que d'autres animaux puissent utiliser la récursivité de manière aussi sophistiquée.

La récursivité peut se produire au début ou à la fin d'une phrase, mais la forme la plus difficile à maîtriser, appelée enchâssement central, se situe au milieu – par exemple, en passant de " le chat est mort " à " le chat que le chien a mordu est mort ".

Le test de Beguš a soumis les modèles de langage à 30 phrases originales présentant des exemples complexes de récursivité. Par exemple : " The astronomy the ancients we revere study was not separate from astrology. " À l’aide d’un arbre syntaxique, l’un des modèles de langage — o1 d’OpenAI — a pu déterminer que la phrase était structurée comme suit :

L'astronomie [que les anciens [que nous vénérons] étudiaient] n'était pas séparée de l'astrologie.

Le modèle est ensuite allé plus loin et a ajouté une autre couche de récursivité à la phrase :

L'astronomie [que les anciens [que nous vénérons [qui vivaient dans des pays que nous chérissons] ] étudiaient] n'était pas séparée de l'astrologie.

Beguš, entre autres, ne s'attendait pas à ce que cette étude aboutisse à un modèle d'IA doté d'une capacité " métalinguistique " de niveau supérieur – " la capacité non seulement d'utiliser une langue, mais aussi de penser à la langue ", comme il l'a formulé.

C’est l’un des aspects " qui attirent l’attention " de leur article, a déclaré David Mortensen. Un linguiste informaticien de l'Université Carnegie Mellon, qui n'a pas participé à ces travaux, a déclaré : " Il existe un débat quant à savoir si les modèles de langage se contentent de prédire le mot (ou le terme linguistique) suivant dans une phrase, ce qui est qualitativement différent de la compréhension profonde du langage propre aux humains. Certains linguistes ont affirmé que les modèles de langage ne traitent pas réellement du langage. Ces résultats semblent invalider ces affirmations. "

Que veux-tu dire?

McCoy s'est dit surpris par les performances d'o1 en général, et notamment par sa capacité à reconnaître l'ambiguïté, " chose notoirement difficile à appréhender pour les modèles informatiques du langage ", a-t-il déclaré. Les humains " possèdent un vaste bagage de connaissances qui leur permet d'écarter l'ambiguïté. Mais il est difficile pour les ordinateurs d'atteindre ce niveau de connaissances. "

Une phrase comme " Rowan a nourri sa poule "** (“Rowan fed his pet chicken”) peut décrire la poule que Rowan garde comme animal de compagnie, ou bien le repas de poulet qu'il a donné à son compagnon animal (sans doute plus traditionnel). Le modèle o1 a correctement produit deux arbres syntaxiques différents : l'un correspondant à la première interprétation de la phrase et l'autre à la seconde.

Les chercheurs ont également mené des expériences sur la phonologie, c'est-à-dire l'étude de la structure des sons et de l'organisation des plus petites unités sonores, appelées phonèmes. Pour parler couramment, comme un locuteur natif, on suit des règles phonologiques acquises par la pratique, souvent sans enseignement explicite. En anglais, par exemple, ajouter un " s " à un mot se terminant par un " g " produit un son " z ", comme dans " dogs ". En revanche, un " s " ajouté à un mot se terminant par un " t " sonne comme un " s " standard, comme dans " cats ".

Dans le cadre de l'exercice de phonologie, le groupe a créé 30 mini-langues, comme les appelait Beguš, afin de déterminer si les participants pouvaient déduire correctement les règles phonologiques sans aucune connaissance préalable. Chaque langue était composée de 40 mots inventés. Voici quelques exemples de mots issus de l'une de ces langues :

θalp

ʃebre

ð i̤ z ṳ

g a̤ rb o̤ nd a̤

ʒ i̤ z ṳ ð e̤ jo

Ils ont ensuite demandé aux modèles de langage d'analyser les processus phonologiques de chaque langue. Pour cette langue, o1 a correctement écrit qu'" une voyelle devient une voyelle soufflée lorsqu'elle est immédiatement précédée d'une consonne à la fois sonore et occlusive " — un son formé par restriction du flux d'air, comme le " t " dans " top ".

Ces langues étant nouvellement inventées, il est impossible que o1 y ait été exposé durant son entraînement. " Je ne m'attendais pas à des résultats aussi probants et impressionnants ", a déclaré Mortensen.

Humain uniquement, ou pas ?

Jusqu'où peuvent aller ces modèles de langage ? Vont-ils s'améliorer indéfiniment, simplement en devenant plus grands – en y intégrant davantage de puissance de calcul, de complexité et de données d'entraînement ? Ou bien certaines caractéristiques du langage humain sont-elles le fruit d'un processus évolutif propre à notre espèce ?

Les résultats récents montrent que ces modèles peuvent, en principe, effectuer des analyses linguistiques poussées. Mais aucun modèle n'a encore produit d'éléments originaux ni ne nous a appris quoi que ce soit de nouveau sur le langage.

Si l'amélioration se résume à accroître la puissance de calcul et la quantité de données d'entraînement, Beguš estime que les modèles de langage finiront par nous surpasser en compétences linguistiques. Mortensen a indiqué que les modèles actuels présentent certaines limites. " Ils sont entraînés à une tâche très spécifique : prédire le jeton suivant à partir d'un historique de mots ", a-t-il expliqué. " Leur mode d'entraînement les empêche de généraliser efficacement. "

Mais au vu des progrès récents, Mortensen estime qu'il n'y a pas lieu de s'inquiéter si les modèles de langage ne finissent pas par comprendre notre langue mieux que nous-mêmes. " Ce n'est qu'une question de temps avant que nous soyons capables de construire des modèles qui généralisent mieux à partir de moins de données, et ce, de manière plus créative. "

Les nouveaux résultats montrent une érosion progressive des propriétés que l'on considérait comme le domaine exclusif du langage humain, a déclaré Beguš. " Il semble que nous soyons moins uniques que nous le pensions auparavant. "

Auteur: Internet

Info: Quanta magazine, Steve Nadis, 31 octobre 2025 *On remarquera ici qu'en français les arborescences croisées sont bien différentes :-) Mg

[ homme-machine ] [ comparaison ] [ homme-animal ]

 

Commentaires: 0

Ajouté à la BD par miguel