Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 49
Temps de recherche: 0.0569s

religieux-civil

Le Syllabus éclata comme un coup de foudre en décembre 1864, quelques jours après la divulgation de la convention du 15 septembre, comme une réponse du Vatican à un arrangement qui disposait de lui sans lui. Ce n’était cependant pas, ainsi que l’a écrit le Père Curci, un document bâclé à la hâte ou un coup de tête de Pie IX. Chez le Pape, revenu de ses premières illusions et leur gardant les rancunes d’un esprit déçu et d’un cœur blessé, c’était un projet déjà ancien. Dès 1852, à en croire un historien ecclésiastique, le Souverain Pontife avait fait adresser à quelques évêques un questionnaire latin en vingt-huit chapitres "sur les erreurs du temps", touchant le dogme et spécialement la morale et la politique. Ce projet fut en tout cas repris dix ans plus tard, en 1862, et celte fois les nombreux évêques réunis à Rome pour la canonisation des martyrs japonais furent consultés confidentiellement. Dans l’intervalle, en 1860, Pie IX aurait, nous dit-on, fait prévenir de ses intentions Mgr Pie, évêque de Poitiers, en lui demandant des notes à ce sujet. Mgr Pie, qui dans l’épiscopat français était à la tête du parti favorable à L’Univers, aurait en ses réponses dénoncé au Vatican les maximes de certains catholiques sur les libertés modernes comme contraires aux constitutions antérieures des papes, et, pour couper court à de pareilles tendances, l’évêque de Poitiers aurait instamment demandé une encyclique solennelle qui fixât sur ces points les croyances indécises. La même année, un prélat non moins illustre, celui que Sainte-Beuve appelait un Platon chrétien, Mgr Gerbet, l’ancien collaborateur de La Mennais à L’Avenir, prenant les devants sur la chaire romaine, publiait un mandement (23 juillet 1860), qui était une sorte de préface du Syllabus. Toujours est-il qu’en juin 1862, Pie IX avait fait consulter les évêques, rassemblés à Rome, sur un semblable catalogue d’erreurs ; le mot Syllabus, on le sait, n’a pas d’autre sens. Mgr Dupanloup, qui ne pouvait être soupçonné de redouter de nouveaux combats, avait averti le cardinal Antonelli de l’orage que ne manquerait pas de soulever une pareille publication. Ce premier Syllabus était, paraît-il, emprunté presque mot pour mot au mandement de Mgr Gerbet, ce qui était peu d’accord avec les usages de la curie romaine. Il fut mis de côté ; mais, sous le règne de Pie IX, la Prudence, dont la figure allégorique décore tant de salles du palais apostolique, avait perdu au Vatican une bonne part de son vieil empire. Un nouveau Syllabus, cette fois extrait des actes mêmes du pontificat de Pie IX, parut à l’improviste à la fin de 1864. La publication en fut accueillie avec enthousiasme dans le clan des adversaires des libertés publiques.

Auteur: Leroy-Beaulieu Anatole

Info: Les catholiques libéraux, l'Église et le libéralisme de 1830 à nos jours, Librairie Plon, 1885, pages 189 à 192

[ historique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

parlêtre

Pour le psychanalyste, le Réel est cette instance logique, indissociable du Symbolique et de l’Imaginaire dont elle constitue le nouage, le Réel se caractérise de l'impossible: impossible à dire, impossibie à symboliser, impossible à imaginer, et qui cependant se fait jour à travers la parole...

Selon la façon dont se nouent les registres du Réel, du Symbolique et de l’Imaginaire, nous obtenons la structure de ce qui se spécifie comme appartenant aux champs de la Religion, de la Science et de la psychanalyse (ou de l’art): la religion (RSI) Réalise à travers un Symbole ce qu’elle offre à Imaginer, par exemple le mystère de l'Eucharistie comme réellement corps et sang du Christ à travers le Symbolique (concept du dieu trine) de l'Idée qu'elle se fait de Dieu (l'homme à l'image de Dieu, et sa réciproque tout aussi bien: idée d’un dieu parfait, infiniment "bon" et aimable...)

La science (SIR) Symbolise (S=concept), l'Idée (l’image) qu'elle se fait du Réel: le tropisme inhérent au discours scientifique consiste en cette volonté de réduire le Réel au Symbolique, que "tout le Réel" finirait par être répertorié, comptabilisé, rendu transmissible sous la forme de formules qui. passant de main en main sans que leur contenu en soit affecté le moins du monde, ni par qui les transmet ni par qui les reçoit, en rendraient compte "objectivement", "pour tous"... d'où l'évacuation systématique hors de la sphère scientifique du sujet ($) en tant qu’il est manifeste du réel (le grain de sable de l’énonciation)...

Moyennant quoi, la Science se définit d’être réfutable, selon l’épistémologue Karl Popper lui-même...

La psychanalyse (IRS) imagine, invente (I=Idée) ce qui du Réel (R=ce qui relève du percept, par le biais de la jouissance, de la souffrance...), peut se symboliser, se dire, s'écrire (S=concept=mathème, topologie)... L'approche psychanalytique fait en sorte que la vie du sujet s’organise autour du vide central (das Ding) identifié comme ce qu'il y a de plus Réel (ce qui fait dire à Beckett que rien n'est plus réel que rien)...

La linguistique, d’abord, peut définir le matériel de la psychanalyse, voire l’appareil de son opération, elle laisse en blanc (les semblants) ce qui la rend effective en psychanalyse (raison pour laquelle la "science des discours", Lacan la nomme "linguisterie"...) La psychanalyse ne cesse depuis Freud d’affirmer que la vérité de la souffrance, c’est d’avoir la vérité comme cause: "Aussi bien dirions-nous que la découverte de Freud est cette vérité que la vérité ne perd jamais ses droits."

Céder sur les mots, c'est toujours avoir déjà cédé sur les choses. Ne compromets pas ton désir, tes besoins et tes demandes s'en trouveront automatiquement satisfaits.

Faire de la santé un objectif direct est contre-productif, tu dois concentrer ton énergie sur autre chose si tu veux que ta santé advienne. Inverse les devises du sens commun, aux fausses certitudes proposées par la réalité, privilégie le mystère du réel, aux sourires fielleux des compromis, des arrangements mensongers, de la soumission, préfère la morsure de la vérité. Prends des risques, confronte-toi à ta peur, fais de la vérité ta priorité, et ta santé viendra par surcroît. Apprendre à parler correctement sa propre langue est le premier moment du système immunitaire.

Auteur: Dubuis Santini Christian

Info: Publication facebook 30.12.2020

[ pensée adéquate ] [ noeud borroméen ] [ thérapie ] [ mal de vivre ] [ indicible priméité ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

théorie du tout

Des chercheurs pourraient avoir découvert une nouvelle loi sur l'évolution de tout ce qui existe dans l'univers !

Comment les choses évoluent-elles ? C'est la question à laquelle les chercheurs tentent de répondre. Galaxies, étoiles et même la vie telle que nous la connaissons ont subi un processus d'évolution. La question est de comprendre comment ce processus se déroule et pourquoi il se produit.

(photo) Un exemple de systèmes complexes sont les galaxies et l'interaction entre elles lors d'une collision.

Lorsque nous regardons l'Univers, nous trouvons des structures complexes allant de la vie telle que nous la connaissons aux galaxies et aux étoiles. Dans différents domaines de la connaissance, le niveau de complexité semble être une question ouverte : comment les structures sont-elles parvenues à des niveaux aussi complexes ?

En biologie, une des questions est de comprendre comment la vie est arrivée à ce que nous connaissons aujourd’hui. En philosophie, la question de la conscience et de l'intelligence qui ont évolué vers des formes de plus en plus complexes. En astronomie, la question de savoir comment les galaxies ont évolué pour devenir ce que nous connaissons aujourd'hui reste jusqu'à présent un grand mystère.

Avec ces questions à l'esprit, un groupe de chercheurs de différents domaines se sont réunis pour proposer une nouvelle loi sur l'évolution des choses dans l'Univers. La loi est connue sous le nom de "loi de l'augmentation de l'information fonctionnelle" qui tente d'expliquer pourquoi les choses évoluent vers des structures plus complexes.

Systèmes Complexes

Des systèmes complexes peuvent être trouvés dans différents domaines allant de la sociologie à la physique. Le domaine se concentre sur la compréhension des unités d'un ensemble qui interagissent les unes avec les autres et ont une dynamique collective.

Un exemple de cela est le comportement d'un ensemble de personnes lors d'un concert de musique, chaque participant est une personne, mais il y a un comportement collectif.

La propre question de comment la vie est apparue est un problème qui a une intersection avec les systèmes complexes. Nous pouvons comprendre les êtres vivants comme une série d'interactions complexes entre les molécules qui à leur tour ont des interactions avec leurs atomes. Expliquer comment nous sommes arrivés à ce niveau de complexité est une grande question ouverte.

Complexité en Physique

En physique, le domaine des systèmes complexes est extrêmement riche pour expliquer différents types de problèmes. Les propres particules et interactions entre particules deviennent de véritables laboratoires. Mais peut-être que les grandes questions se trouvent à l'intérieur de l'astrophysique.

(photo) Les systèmes complexes peuvent être dans une variété de domaines allant de la sociologie à la physique.

Nous observons des galaxies de différents types avec des dynamiques compliquées. Notre propre Voie Lactée est un exemple de galaxie de type spirale, mais nous observons d'autres types tels que les elliptiques, les irrégulières et les lenticulaires. La dynamique complexe soulève des questions telles que : comment sont-elles apparues ?

L'une des missions principales du télescope spatial James Webb est de comprendre comment les galaxies se sont formées lorsque l'Univers était jeune. La réponse est si difficile qu'il y a un effort de la communauté scientifique pour analyser les détails des données pour commencer à tenter de répondre à la question.

Étude des Systèmes Complexes

Certains chercheurs de l'Université de Cornell se sont réunis pour répondre à la question : pourquoi les systèmes complexes, y compris la vie, évoluent-ils vers de plus grandes informations fonctionnelles au fil du temps ? L'étude a rassemblé des astronomes, des physiciens, des philosophes, un minéralogiste et un scientifique des données pour tenter de répondre.

Selon l'auteur de l'étude, c'était l'une des plus grandes réunions entre philosophes et scientifiques de la nature pour répondre à la question. Ensemble, ils ont introduit ce qu'ils ont appelé la "loi de l'augmentation de l'information fonctionnelle"Les lois aident à donner une direction pour comprendre la raison derrière ce que nous observons.

Loi de l'Augmentation de l'Information Fonctionnelle

Dans le travail publié par la revue PNAS, les chercheurs rapportent que la nouvelle loi stipule qu'un système évolue si différentes configurations du système sont utilisées pour une ou plusieurs fonctions. En d'autres termes, un système aura tendance à devenir de plus en plus complexe au fil du temps en fonction des fonctions.

La loi parle également de la sélection naturelle des systèmes et du fait que seuls certains survivront, c'est-à-dire que les plus complexes survivront. Cela est très similaire à la Théorie de l'Évolution de Darwin mais élargie à des systèmes qui ne sont pas vivants, comme l'arrangement des atomes ou même des galaxies.

Critiques

Le travail a été salué par différents chercheurs qui soutiennent que c'est un pas en avant dans la compréhension des systèmes complexes. Cependant, certains ont également examiné le travail avec critique, disant qu'il n'est pas nécessaire de trouver une loi analogue à la théorie de Darwin pour les systèmes non vivants.

Auteur: Internet

Info: https://www.tameteo.com, Roberta DuarteMeteored Brésil25/10/2023

[ réseaux bayésiens dynamiques ] [ macro ] [ micro ] [ nano ] [ giga ] [ astrophysique ] [ complexification ]

 

Commentaires: 0

Ajouté à la BD par miguel

final sans fin

Mesdames et messieurs nous avons été absolument ravis de passer ce bon moment avec vous et j'ai donc le plaisir de vous présenter à la guitare : Monsieur Piotr Idriss Lee... Au saxophone nous avons Mme Franzisca Brel. Les arrangement sont de Jean-Philippe Erbien (qui a remplacé au pied levé Jacques Edouard de la Petite Bouillotte, qui s'est fracturé le poignet et à qui nous souhautons un prompt rétablissement... )

À la section rythmique vous aurez reconnu notre bassiste aimé l'inspecteur Missaire... ainsi que notre batteur le comissaire Pecteur. Merci mille fois d'être venu si nombreux... toute notre reconnaissance aussi au staff technique, au personnel du bar, de la billetterie et des vestiaires... bon retour à la maison à tous.... portez-vous bien... soyez prudent sur la route... que la paix soit avec vous... et à bientôt allez ciao tout le monde...

C'est fini, on arrive au bout... oui, c'est l'épilogue... le point final... la conclusion... le terme. Oui, nous touchons au but... c'est le dénouement, la mort du spectacle... nous sommes à destination... voici la chute, la clôture, la coda, le couronnement, l'ultime déclin, le crépuscule, le terminus, l'extinction, c'est une cessation, une finition, c'est l'accomplissement, l'arrêt, la dernière borne, il nous faut clore, clôturer, conclure, couronner ce sujet, dénouer cette affaire, ce thème est épuisé, il faut l'expédier, le mener à bien, fignoler cette fermeture, y mettre la dernière main... la dernière main... 

C'est la fin, il nous faut conclure C'est fini, on arrive au bout... ça va s'interrompre.... On y est c'est vraiment fini oui, c'est l'épilogue le point final la conclusion le terme enfin... On y arrive nous touchons au but, c'est l'aboutissement... le dénouement, la fin du voyage, l'extrémité finale, l'ultime frontière, l'issue, la résolution, c'est là que tout va se terminer, s'arrêter, cesser.... couper, stopper, s'achever, s'éteindre, se tarir, s'estomper, s'escamoter... nous allons partir, nous tirer, caleter, nous carapater, appareiller, battre en retraite, vous brûler la politesse, débarrasser le plancher, décamper, décaniller, décarrer, dégager, déguerpir, déménager, déserter le paysage, détaler, émigrer, foutre le camps, filer à l'anglaise, lever le siège, mettre les bouts, mettre les voiles, prendre congé, prendre la poudre d'escampette, prendre le large, prendre nos cliques et nos claques, prendre nos jambes à notre cou, nous barrer, nous casser, nous cavaler, nous débiner, nous défiler, nous dérober, nous mettre en route, nous tailler, nous trisser, tirer notre révérence....

Tout va maintenant se dénouer, se régler, finir, finir, finir, finir, se dissiper, Nous allons compléter la chose, définitivement, y mettre la dernière main, couper court... tout est consommé ! ...... nous avons couronné le tout, cette pièce va décéder, disparaître, nous allons entonner son chant du départ, elle a épuisé ses dernières ressources, il faut expédier les ultimes affaires courantes, fermer ce dossier définitivement, tout sera mort, nous aurons parachevé cette oeuvre, nous allons la parfaire, nous allons partir, nous ne faisions que passer, comme toute chose il faut disparaître, périr, il faut rompre le cycle...........

En musique .......... voilà, voilà, voilà...

Maintenant que les musiciens s'en sont donné à coeur joie nous allons enfin pouvoir conclure cette magnifique fin différée.... qui va maintenant gentiment s'amenuiser, s'arrêter petit à petit, s'éteindre, s'évanouir, s'interrompre, se dénouer pour finalement passer, succomber de sa belle mort, se tarir, trépasser.... Elle va atteindre sa dernière borne, son aboutissement, voici venir le bout du bout, le confins des confins, l'extrême, frontière finale, l'ultime lisière, le jour dernier, le dernier sommeil, son dernier soupir, dernier souffle, sa disparition, la cessation du grand voyage, le plongeon définitif, nous voilà rendu, c'est le repos éternel, voici son tombeau, l'extrémité finale, Quel bilan, quel couronnement, quelle apothéose.....

Il faut que ça cesse, que ça cesse, que ça cesse, que ça cesse, que ça cesse, que ça cesse... allez COUCHé !... qu'on stoppe qu'on en finisse, allez, partez !, dégagez ! disparaissez, foutez le camp, caletez, dépeuplez moi ces notes, détruisez les, que cela se dissolve, allez, vite, et non pas une éclipse mais une disparition pure et simple, un effacement, un effondrement, allez, stop... et vite allez, stop, je vous en prie, je vous en supplie... bououhhhh oiiinnn... j'ai promis au public que c'était fini, qu'on était au bout du tunnel... s'il vous plait... que tout s'arrête, finisse pour de bon, qu'on ne laisse pas ceci décliner, agoniser tout ceci trop longtemps, il faut liquider le problème, prendre une décision, lui donner le coup de grâce... trouver son bourreau, c'est fastidieux, assommant, ennuyeux, lassant, moribond... mon Dieu, quelle décadence, quelle décomposition, décrépitude,... quelle détresse d'en arriver à ce pareille extrémités, quel sinistre râle... je suis fatigué... ah, enfin.... Cela semble s'arrêter pour de bon... chhuuuut, taisez-vous, je n'ai pas envie de post scriptum, de complément, addenda, apostille, postface et autres explications complémentaires... Je suis usé, vidé, vide, essoré mais tranquille, enfin dans la vacuité désertique du néant, détruit mais enfin tout s'est arrêté, le spectacle est complet, achevé... Nous en voici débarrassés, tout s'est dégarni, démeublé, dénudé, dépeuplé, dépouillé, désempli, quelle heureuse solitude, joie de l'inanimé, l'infréquenté, l'inhabité, l'inoccupé....

Voici le silence infini, perpétuel... le vide intégral, la parfaite vacuité, l'insondable perfection cosmique, le plein, désert, le rien dans sa plénitude, la profonde perpétuité, un espace complètement pur et vacant, ouvert.. ah quel souverain vacuum, le zéro à son summum, la nudité suprême, insondable abîme, pleine inconsistance, totale inexistence.... non-être.

Auteur: MG

Info: 2008, texte d'une création humoristico-musicale, non aboutie, qui consistait à extendre la plus possible la fin d'un spectacle sur scène. Le lien en début de texte conduit vers une pré-maquette musicale de la chose qui avec ce texte et les images peut être appréhendée comme un triple codage

[ excipit ] [ exagération ] [ synonymes ]

 

Commentaires: 0

âme

Panpsychisme, l'esprit des pierres La plupart pense que tous les humains sont conscients, ainsi que beaucoup d'animaux. Certains, comme les grands singes, semblent même être timides comme nous. D'autres, comme les chiens et les chats, les porcs, manquent d'un sens de l'ego mais ils semblent éprouver les états intérieurs de plaisir, etc... Pour les créatures plus petites, comme des moustiques, nous ne sommes pas aussi sûrs et n'avons pas de scrupules pour les massacrer. Quant aux plantes, elles n'ont évidemment pas d'esprit, excepté dans des contes de fées. Et encore moins les choses non vivantes comme les tables et les pierres. Les Atomes Mentaux "Si l'évolution fonctionne en douceur, une certaines forme de conscience doit être présente à l'origine même des choses. On constate que les philosophes évolutionnistes commencent à en poser le principe. Chaque atome de la galaxie, supposent-ils, doit avoir eu un atome original de conscience lié avec lui. Les atomes mentaux... sont alors fondu en de plus grandes consciences : nous-mêmes et peut-être chez nos camarade-animaux." James William, Principes de Psychologie 1890 Tout paraît de bon sens. Mais le bon sens n'a pas toujours été un si bon guide pour comprendre le monde et sa partie la plus récalcitrante à notre compréhension à l'heure actuelle est bien la conscience elle-même. Comment les processus électrochimiques de notre cerveau, peuvent-ils exister et donner ce jeu en technicolor de la conscience, avec ses transports de joie, ses coups d'angoisse et autres moments de contentement doux alternant avec l'ennui ?... Voici peut-être une des dernières frontières des sciences. Elle nourrit les énergies intellectuelles de la communauté scientifique, les psychologues, philosophes, physiciens, informaticiens et aussi, de temps en temps, le Dalai Lama. Ceci amène certains à une hypothèse un peu folle. Peut-être, disent-ils, que l'esprit n'est pas limité aux cerveaux de quelques animaux. Peut-être est-il partout, présent dans chaque atome, des électrons et neutrinos jusqu'aux galaxies, sans exclure les choses de taille moyenne comme un verre de l'eau ou une plante en pot. Il n'aurait donc pas soudainement surgi quand quelques particules physiques sur une certaine planète se sont retrouvées, après évolution, dans la bonne configuration. Mais plutôt : il y a une conscience dans le cosmos depuis toujours. Cette doctrine que la substance du monde est fondamentalement esprit s'appelle panpsychisme. Il y a quelques décennies, le philosophe américain Thomas Nagel a montré que c'était une conséquence logique de quelques faits raisonnables. D'abord, nos cerveaux se composent de particules matérielles. Ensuite ces particules, dans certains arrangements, produisent des pensées et des sentiments subjectifs. Troisièmement, les propriétés physiques ne peuvent expliquer en elles-mêmes la subjectivité. (Comment l'ineffable expérience qui consiste à goûter une fraise pourrait-elle résulter en équations physiques ?) Nagel a donc théorisé que les propriétés d'un système complexe comme le cerveau ne surgissent pas simplement dans l'existence à partir de nulle part. Elles doivent dériver des propriétés des constituants de ce système. Ces constituants doivent par conséquent avoir eux-mêmes des propriétés subjectives - propriétés qui, dans les bonnes combinaisons, s'ajoutent jusqu'à donner nos pensées et sentiments intérieurs. Et comme les électrons, les protons et les neutrons constituant nos cerveaux ne sont pas différent de ceux qui constituent le reste du cosmos l'univers entier doit donc se composer d'infimes morceaux de conscience. Nagel n'est pas allé jusqu'au panpsychisme, mais aujourd'hui il peut constater quelque qui ressemble à une mode. Le philosophe australien David Chalmers et le physicien Roger Penrose d'Oxford ont parlé de lui. Dans le livre récent "La conscience et sa place dans la nature," le philosophe britannique Galen Strawson défend le panpsychisme contre de nombreuses critiques. Comment se pourrait-il, demandent les sceptiques, que des morceaux d'esprit poussière, avec des états mentaux vraisemblablement simples, se combinent-ils pour former le genres d'expériences mentales compliquées que nous autres humains vivons ? Après tout, quand on rassemble un groupe de personnes dans une salle, leurs différents esprits ne forment pas un esprit collectif simple. (Quoique!) Ensuite il y a le fait incommode qu'on ne peut pas scientifiquement tester cette affirmation qui, par exemple, dirait que la lune a un fonctionnement mental. (Et cela s'applique aussi aux gens - comment pourrez-vous démontrer que vos camarades de bureau de ne sont pas des robots sans connaissance, comme le commandant Data sur "Star Trek" ?) Il y a aussi cette idée un peu pernicieuse : si quelque chose comme un photon peut avoir des proto-émotions, proto-croyances et proto-désirs. Que pourrait alors être le contenu du désir d'un photon?.. Devenir un quark, ironise un anti panpsychisme. Il est plus facile de parodier le Panpsychisme que le réfuter. Mais même si cette recherche de compréhension de la conscience s'avère être un cul-de-sac, cela pourra éventuellement nous aider à nous élever au-dessus de nos pensées conventionnelles de la perspective cosmique. Nous sommes des êtres biologiques. Nous existons parce que nous sommes des autos réplications de nous-mêmes. Nous détectons et agissons sur l'information de notre environnement de sorte que nos réplications continuent. En tant que sous-produits, nous avons développé des cerveaux qui, nous voulons voir comme les choses les plus complexes de l'univers. Mais pensons à la matière brute. Prenez un rocher. Il ne semble pas faire grand-chose, en tout cas pour ce qui est d'animer nos perceptions. Mais à un nano niveau il se compose d'un nombre inimaginable d'atomes reliés par des liaisons chimiques flexibles, ondoyantes et s'agitant ensembles à des cadences que même notre ordinateur géant le plus rapide pourra envier pour encore longtemps. Et ils ne 'agitent pas au hasard. Les intestins du rocher "voient" l'univers entier au moyen de signaux gravitationnels et électromagnétiques qu'ils reçoivent sans interruption. Un tel système pourrait être regardé comme un processeur polyvalent d'informations, dont la dynamique intérieure pourrait refléter n'importe quelle séquence des états mentaux que nos cerveaux traversent. Et là où il y a de l'information, dit le panpsychisme, il y a de la conscience. Ainsi le slogan de David Chalmers, "l'expérience est information de l'intérieur; la physique est information de l'extérieur." Mais le rocher ne se démène pas lui-même comme résultat de toute cette "réflexion". Pourquoi le devrait-il ? Son existence, à la différence de la nôtre, ne dépend pas d'une lutte pour la survie et la reproduction. Il est indifférent à la perspective d'être pulvérisé. Etant poète on pourrait voir le rocher comme un être purement contemplatif. Et on pourrait dessiner cette morale que l'univers est, et a toujours été, saturé d'esprit. Même si nous autres snobs darwiniens reproducteurs retardataires sommes trop fermés pour le réaliser.

Auteur: Holt Jim

Info: Fortean Times 18 Nov. 2007

[ matière ] [ monade ] [ minéral ] [ métaphysique ] [ chiasme ]

 

Commentaires: 0

macromolécules

(Q) - Combien de protéines ont été identifiées à ce jour ?

(R) - À la date d'arrêt de mes connaissances, en septembre 2021, le nombre de protéines identifiées dans le protéome humain et dans divers organismes ne cesse de croître en raison des efforts de recherche continus. Il est difficile de fournir un chiffre exact car l'identification des protéines est un domaine actif de la recherche scientifique et de nouvelles protéines sont découvertes en permanence.

Toutefois, à cette époque, on estimait que le protéome humain se composait de dizaines de milliers de protéines. Le projet du protéome humain (HPP), une initiative de recherche internationale, vise à identifier et à caractériser toutes les protéines codées par le génome humain. Le HPP a réalisé des progrès significatifs dans la cartographie du protéome humain, mais une couverture complète est encore en cours.

Il est important de noter que le nombre de protéines identifiées varie en fonction de l'organisme étudié. Il existe des millions de séquences de protéines connues dans divers organismes, y compris les humains, les animaux, les plantes, les bactéries et les virus.

Comme mes connaissances ne sont pas à jour, je recommande de se référer à la littérature scientifique actuelle ou à des bases de données telles que UniProt ou Protein Data Bank (PDB) pour obtenir les informations les plus précises et les plus récentes sur le nombre de protéines identifiées.

(Q) - Comment les protéines sont-elles classées ?

(R) - Les protéines sont classées en fonction de divers critères, notamment leur structure, leur fonction et leurs relations évolutives. Voici quelques méthodes de classification des protéines couramment utilisées :

1 Classification structurelle : Les protéines peuvent être classées en fonction de leurs caractéristiques structurelles. Le système de classification structurelle le plus courant est la classification structurelle des protéines (SCOP) ou la base de données CATH (Class, Architecture, Topology, Homologous superfamily). Ces systèmes classent les protéines dans des hiérarchies en fonction de leur pliage global, de l'organisation des domaines et des motifs structurels.

2 Classification fonctionnelle : Les protéines peuvent être classées en fonction de leurs fonctions biologiques. Cette classification est souvent large et englobe des catégories fonctionnelles telles que les enzymes, les transporteurs, les récepteurs, les protéines structurelles, les protéines de signalisation et bien d'autres encore. Les systèmes de classification fonctionnelle sont généralement basés sur le rôle de la protéine dans les processus cellulaires.

3 Classification basée sur l'homologie : Les protéines peuvent être classées sur la base de leurs relations évolutives et de leurs similitudes de séquence. Cette classification repose sur la comparaison des séquences protéiques et l'identification des protéines homologues qui partagent un ancêtre commun. Elle est généralement réalisée à l'aide d'algorithmes tels que BLAST (Basic Local Alignment Search Tool) ou HMM (Hidden Markov Models).

4 Classification selon l'ontologie des gènes (GO) : L'ontologie des gènes est un système de classification largement utilisé qui attribue des annotations fonctionnelles aux protéines sur la base de trois catégories : fonction moléculaire, processus biologique et composant cellulaire. Les termes GO fournissent un vocabulaire normalisé pour décrire les fonctions des protéines et leur implication dans les processus biologiques.

5 Classification par famille et par super-famille : Les protéines peuvent être classées en familles et superfamilles sur la base de caractéristiques structurelles et séquentielles communes. Les familles de protéines sont constituées de protéines présentant une grande similitude de séquence et partageant souvent des relations fonctionnelles et évolutives. Les superfamilles englobent des familles de protéines apparentées qui partagent des similitudes structurelles et fonctionnelles, mais qui peuvent avoir divergé au cours de l'évolution.

These are just a few examples of protein classification methods, and there are other specialized systems based on specific properties or research areas. It's important to note that proteins can belong to multiple classification categories simultaneously, as they can have similar structures, functions, or evolutionary origins. Classification systems serve as useful tools for organizing and understanding the vast diversity of proteins found in living organisms.

(Q) - Il y a donc une sorte de classification complexe et intriquée, n'est-ce pas ?

 (R) - Oui, la classification des protéines peut en effet être complexe en raison des divers facteurs pris en compte et des interrelations entre les différents systèmes de classification. Les protéines sont des molécules très diverses, dotées de caractéristiques uniques, et leur classification reflète cette complexité.

Les différentes méthodes de classification se recoupent et se complètent souvent, ce qui permet une compréhension globale de la structure, de la fonction et de l'évolution des protéines. Par exemple, les systèmes de classification structurelle tels que SCOP ou CATH prennent en compte l'organisation globale des plis et des domaines des protéines, tandis que les systèmes de classification fonctionnelle se concentrent sur les rôles et les activités biologiques des protéines. La classification basée sur l'homologie tient compte des relations évolutives et des similitudes de séquence, et la classification par ontologie génique fournit un vocabulaire normalisé pour décrire les fonctions des protéines.

En outre, les protéines peuvent appartenir à plusieurs catégories au sein d'un système de classification. Par exemple, une protéine peut avoir une structure spécifique et être classée dans un pli particulier, tout en faisant partie d'une famille de protéines sur la base de la similarité des séquences et des caractéristiques fonctionnelles. Cette classification multidimensionnelle permet aux chercheurs d'explorer différents aspects des protéines et de mieux comprendre leurs propriétés et leurs relations.

Dans l'ensemble, la nature complexe de la classification des protéines reflète la nature complexe des protéines elles-mêmes et les efforts déployés pour organiser et comprendre leurs divers attributs. Ces systèmes de classification fournissent des cadres pour l'étude des protéines et facilitent la communication et le partage des connaissances entre les chercheurs dans ce domaine.

(Q) - Peut-on dire qu'il y a aussi, dans ces différentes classifications, quelque chose qui pourrait ressembler à un pôle phénétique et à un pôle cladistique ?

(R) - Oui, dans le domaine de la classification des protéines, il y a des éléments qui peuvent être associés aux approches phénétiques (aussi connues sous le nom de taxonomie numérique) et cladistiques.

Classification phénétique : La classification phénétique met l'accent sur les similitudes et les différences globales entre les protéines, souvent sur la base d'une analyse numérique ou statistique de leurs caractéristiques. Elle se concentre sur des traits ou des caractéristiques quantifiables et vise à regrouper les protéines sur la base d'une ressemblance globale. Dans le contexte de la classification des protéines, les approches phénétiques peuvent impliquer le regroupement des protéines sur la base de mesures de similarité telles que l'alignement des séquences, l'alignement structurel ou la comparaison d'autres propriétés physicochimiques.

Classification cladistique : La classification cladistique, quant à elle, est basée sur les relations évolutives et les ancêtres partagés. Elle cherche à identifier des groupes monophylétiques (clades) qui comprennent un ancêtre commun et tous ses descendants. La cladistique repose sur l'analyse phylogénétique, qui consiste à comparer des séquences de protéines ou d'autres données moléculaires pour reconstruire des arbres ou des réseaux évolutifs. Les cladogrammes qui en résultent décrivent les relations évolutives entre les protéines et peuvent aider à les classer en groupes sur la base de leur histoire évolutive.

Dans la pratique, les approches phénétiques et cladistiques sont souvent utilisées en combinaison, en exploitant différents types de données et d'analyses pour obtenir une compréhension plus complète de la classification des protéines. Les systèmes de classification structurelle tels que SCOP ou CATH, par exemple, intègrent à la fois les principes phénétiques et cladistiques. Ils prennent en compte les similitudes structurelles (aspect phénétique) mais visent également à refléter les relations évolutives et les ancêtres partagés (aspect cladistique) en regroupant les protéines dans des catégories hiérarchiques basées sur leurs plis, leurs domaines et leurs connexions évolutives.

En intégrant à la fois les perspectives phénétiques et cladistiques, les systèmes de classification des protéines peuvent saisir à la fois les similitudes et les différences globales entre les protéines (pôle phénétique) et leur histoire évolutive et leurs liens de parenté (pôle cladistique). Cela permet d'obtenir un cadre de classification plus nuancé et plus informatif dans le domaine de la science des protéines.

(Q) - ok merci : existe-t-il aussi une classification tridimensionnelle ?

(R) - Oui, il existe une classification tridimensionnelle (3D) des protéines basée sur leurs propriétés structurelles. La classification 3D consiste à classer les protéines en fonction de leurs structures tridimensionnelles plutôt qu'en fonction de leur séquence ou de leurs similitudes fonctionnelles. Ce type de classification est particulièrement pertinent en biologie structurale et en modélisation moléculaire.

Dans la classification 3D, les protéines sont regroupées en fonction de leur pli global, de l'arrangement des éléments structurels secondaires et de l'arrangement spatial des atomes. Elle tient compte de la disposition et de l'orientation spécifiques des domaines protéiques, des motifs et d'autres caractéristiques structurelles.

La classification structurelle des protéines (SCOP) et la base de données CATH (Class, Architecture, Topology, Homologous superfamily), que j'ai mentionnées précédemment, fournissent des classifications hiérarchiques qui incluent des informations structurelles en 3D. Ces classifications classent les protéines dans différentes catégories en fonction de leur pliage global et de leur organisation structurelle.

En outre, d'autres méthodes et algorithmes, tels que les outils d'alignement structurel, peuvent être utilisés pour comparer les structures des protéines et identifier les similitudes et les différences. Ces approches aident à regrouper ou à classer les protéines en groupes structurels 3D, ce qui permet aux chercheurs d'analyser et de comprendre les relations entre les structures des protéines d'une manière plus détaillée.

La classification 3D des protéines fournit des informations précieuses sur la diversité structurelle et les relations entre les protéines. Elle est particulièrement utile pour étudier la fonction des protéines, les mécanismes d'action, les interactions protéine-protéine et la conception de médicaments. En considérant les aspects tridimensionnels de la structure des protéines, les chercheurs peuvent mieux comprendre comment la structure des protéines est liée à la fonction et aux relations évolutives.

Auteur: chatGPT4

Info:

[ machine-homme ] [ chimie ] [ taxinomies ] [ typologies ]

 

Commentaires: 0

Ajouté à la BD par miguel

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel

interrogation

Pourquoi cet univers ? Un nouveau calcul suggère que notre cosmos est typique.

Deux physiciens ont calculé que l’univers a une entropie plus élevée – et donc plus probable – que d’autres univers possibles. Le calcul est " une réponse à une question qui n’a pas encore été pleinement comprise ".

(image : Les propriétés de notre univers – lisse, plat, juste une pincée d’énergie noire – sont ce à quoi nous devrions nous attendre, selon un nouveau calcul.)

Les cosmologues ont passé des décennies à chercher à comprendre pourquoi notre univers est si étonnamment vanille. Non seulement il est lisse et plat à perte de vue, mais il s'étend également à un rythme toujours plus lent, alors que des calculs naïfs suggèrent que – à la sortie du Big Bang – l'espace aurait dû se froisser sous l'effet de la gravité et détruit par une énergie noire répulsive.

Pour expliquer la planéité du cosmos, les physiciens ont ajouté un premier chapitre dramatique à l'histoire cosmique : ils proposent que l'espace se soit rapidement gonflé comme un ballon au début du Big Bang, aplanissant toute courbure. Et pour expliquer la légère croissance de l’espace après cette première période d’inflation, certains ont avancé que notre univers n’est qu’un parmi tant d’autres univers moins hospitaliers dans un multivers géant.

Mais maintenant, deux physiciens ont bouleversé la pensée conventionnelle sur notre univers vanille. Suivant une ligne de recherche lancée par Stephen Hawking et Gary Gibbons en 1977, le duo a publié un nouveau calcul suggérant que la clarté du cosmos est attendue plutôt que rare. Notre univers est tel qu'il est, selon Neil Turok de l'Université d'Édimbourg et Latham Boyle de l'Institut Perimeter de physique théorique de Waterloo, au Canada, pour la même raison que l'air se propage uniformément dans une pièce : des options plus étranges sont concevables, mais extrêmement improbable.

L'univers " peut sembler extrêmement précis, extrêmement improbable, mais eux  disent : 'Attendez une minute, c'est l'univers préféré' ", a déclaré Thomas Hertog , cosmologue à l'Université catholique de Louvain en Belgique.

"Il s'agit d'une contribution nouvelle qui utilise des méthodes différentes de celles utilisées par la plupart des gens", a déclaré Steffen Gielen , cosmologue à l'Université de Sheffield au Royaume-Uni.

La conclusion provocatrice repose sur une astuce mathématique consistant à passer à une horloge qui tourne avec des nombres imaginaires. En utilisant l'horloge imaginaire, comme Hawking l'a fait dans les années 70, Turok et Boyle ont pu calculer une quantité, connue sous le nom d'entropie, qui semble correspondre à notre univers. Mais l’astuce du temps imaginaire est une manière détournée de calculer l’entropie, et sans une méthode plus rigoureuse, la signification de la quantité reste vivement débattue. Alors que les physiciens s’interrogent sur l’interprétation correcte du calcul de l’entropie, beaucoup le considèrent comme un nouveau guide sur la voie de la nature quantique fondamentale de l’espace et du temps.

"D'une manière ou d'une autre", a déclaré Gielen, "cela nous donne peut-être une fenêtre sur la microstructure de l'espace-temps."

Chemins imaginaires

Turok et Boyle, collaborateurs fréquents, sont réputés pour avoir conçu des idées créatives et peu orthodoxes sur la cosmologie. L’année dernière, pour étudier la probabilité que notre Univers soit probable, ils se sont tournés vers une technique développée dans les années 1940 par le physicien Richard Feynman.

Dans le but de capturer le comportement probabiliste des particules, Feynman a imaginé qu'une particule explore toutes les routes possibles reliant le début à la fin : une ligne droite, une courbe, une boucle, à l'infini. Il a imaginé un moyen d'attribuer à chaque chemin un nombre lié à sa probabilité et d'additionner tous les nombres. Cette technique de " l’intégrale du chemin " est devenue un cadre puissant pour prédire le comportement probable d’un système quantique.

Dès que Feynman a commencé à faire connaître l’intégrale du chemin, les physiciens ont repéré un curieux lien avec la thermodynamique, la vénérable science de la température et de l’énergie. C'est ce pont entre la théorie quantique et la thermodynamique qui a permis les calculs de Turok et Boyle.

La thermodynamique exploite la puissance des statistiques afin que vous puissiez utiliser seulement quelques chiffres pour décrire un système composé de plusieurs éléments, comme les milliards de molécules d'air qui s'agitent dans une pièce. La température, par exemple – essentiellement la vitesse moyenne des molécules d’air – donne une idée approximative de l’énergie de la pièce. Les propriétés globales telles que la température et la pression décrivent un "  macrostate " de la pièce.

Mais ce terme de un macro-état est un compte rendu rudimentaire ; les molécules d’air peuvent être disposées d’un très grand nombre de manières qui correspondent toutes au même macroétat. Déplacez un peu un atome d’oxygène vers la gauche et la température ne bougera pas. Chaque configuration microscopique unique est appelée microétat, et le nombre de microétats correspondant à un macroétat donné détermine son entropie.

L'entropie donne aux physiciens un moyen précis de comparer les probabilités de différents résultats : plus l'entropie d'un macroétat est élevée, plus il est probable. Il existe bien plus de façons pour les molécules d'air de s'organiser dans toute la pièce que si elles étaient regroupées dans un coin, par exemple. En conséquence, on s’attend à ce que les molécules d’air se propagent (et restent dispersées). La vérité évidente selon laquelle les résultats probables sont probables, exprimée dans le langage de la physique, devient la célèbre deuxième loi de la thermodynamique : selon laquelle l’entropie totale d’un système a tendance à croître.

La ressemblance avec l'intégrale du chemin était indubitable : en thermodynamique, on additionne toutes les configurations possibles d'un système. Et avec l’intégrale du chemin, vous additionnez tous les chemins possibles qu’un système peut emprunter. Il y a juste une distinction assez flagrante : la thermodynamique traite des probabilités, qui sont des nombres positifs qui s'additionnent simplement. Mais dans l'intégrale du chemin, le nombre attribué à chaque chemin est complexe, ce qui signifie qu'il implique le nombre imaginaire i , la racine carrée de −1. Les nombres complexes peuvent croître ou diminuer lorsqu’ils sont additionnés, ce qui leur permet de capturer la nature ondulatoire des particules quantiques, qui peuvent se combiner ou s’annuler.

Pourtant, les physiciens ont découvert qu’une simple transformation peut vous faire passer d’un domaine à un autre. Rendez le temps imaginaire (un mouvement connu sous le nom de rotation de Wick d'après le physicien italien Gian Carlo Wick), et un second i entre dans l'intégrale du chemin qui étouffe le premier, transformant les nombres imaginaires en probabilités réelles. Remplacez la variable temps par l'inverse de la température et vous obtenez une équation thermodynamique bien connue.

Cette astuce de Wick a conduit Hawking et Gibbons à une découverte à succès en 1977, à la fin d'une série éclair de découvertes théoriques sur l'espace et le temps.

L'entropie de l'espace-temps

Des décennies plus tôt, la théorie de la relativité générale d’Einstein avait révélé que l’espace et le temps formaient ensemble un tissu unifié de réalité – l’espace-temps – et que la force de gravité était en réalité la tendance des objets à suivre les plis de l’espace-temps. Dans des circonstances extrêmes, l’espace-temps peut se courber suffisamment fortement pour créer un Alcatraz incontournable connu sous le nom de trou noir.

En 1973, Jacob Bekenstein a avancé l’hérésie selon laquelle les trous noirs seraient des prisons cosmiques imparfaites. Il a estimé que les abysses devraient absorber l'entropie de leurs repas, plutôt que de supprimer cette entropie de l'univers et de violer la deuxième loi de la thermodynamique. Mais si les trous noirs ont de l’entropie, ils doivent aussi avoir des températures et rayonner de la chaleur.

Stephen Hawking, sceptique, a tenté de prouver que Bekenstein avait tort, en se lançant dans un calcul complexe du comportement des particules quantiques dans l'espace-temps incurvé d'un trou noir. À sa grande surprise, il découvrit en 1974 que les trous noirs rayonnaient effectivement. Un autre calcul a confirmé l'hypothèse de Bekenstein : un trou noir a une entropie égale au quart de la surface de son horizon des événements – le point de non-retour pour un objet tombant.

Dans les années qui suivirent, les physiciens britanniques Gibbons et Malcolm Perry, puis plus tard Gibbons et Hawking, arrivèrent au même résultat dans une autre direction . Ils ont établi une intégrale de chemin, additionnant en principe toutes les différentes manières dont l'espace-temps pourrait se plier pour former un trou noir. Ensuite, ils ont fait tourner le trou noir, marquant l'écoulement du temps avec des nombres imaginaires, et ont scruté sa forme. Ils ont découvert que, dans la direction du temps imaginaire, le trou noir revenait périodiquement à son état initial. Cette répétition semblable au jour de la marmotte dans un temps imaginaire a donné au trou noir une sorte de stase qui leur a permis de calculer sa température et son entropie.

Ils n’auraient peut-être pas fait confiance aux résultats si les réponses n’avaient pas correspondu exactement à celles calculées précédemment par Bekenstein et Hawking. À la fin de la décennie, leur travail collectif avait donné naissance à une idée surprenante : l’entropie des trous noirs impliquait que l’espace-temps lui-même était constitué de minuscules morceaux réorganisables, tout comme l’air est constitué de molécules. Et miraculeusement, même sans savoir ce qu’étaient ces " atomes gravitationnels ", les physiciens ont pu compter leurs arrangements en regardant un trou noir dans un temps imaginaire.

"C'est ce résultat qui a laissé une très profonde impression sur Hawking", a déclaré Hertog, ancien étudiant diplômé et collaborateur de longue date de Hawking. Hawking s'est immédiatement demandé si la rotation de Wick fonctionnerait pour autre chose que les trous noirs. "Si cette géométrie capture une propriété quantique d'un trou noir", a déclaré Hertog, "alors il est irrésistible de faire la même chose avec les propriétés cosmologiques de l'univers entier."

Compter tous les univers possibles

Immédiatement, Hawking et Gibbons Wick ont ​​fait tourner l’un des univers les plus simples imaginables – un univers ne contenant rien d’autre que l’énergie sombre construite dans l’espace lui-même. Cet univers vide et en expansion, appelé espace-temps " de Sitter ", a un horizon au-delà duquel l’espace s’étend si rapidement qu’aucun signal provenant de cet espace ne parviendra jamais à un observateur situé au centre de l’espace. En 1977, Gibbons et Hawking ont calculé que, comme un trou noir, un univers de De Sitter possède également une entropie égale au quart de la surface de son horizon. Encore une fois, l’espace-temps semblait comporter un nombre incalculable de micro-états.

Mais l’entropie de l’univers réel restait une question ouverte. Notre univers n'est pas vide ; il regorge de lumière rayonnante et de flux de galaxies et de matière noire. La lumière a provoqué une expansion rapide de l'espace pendant la jeunesse de l'univers, puis l'attraction gravitationnelle de la matière a ralenti les choses pendant l'adolescence cosmique. Aujourd’hui, l’énergie sombre semble avoir pris le dessus, entraînant une expansion galopante. "Cette histoire d'expansion est une aventure semée d'embûches", a déclaré Hertog. "Il n'est pas si facile d'obtenir une solution explicite."

Au cours de la dernière année, Boyle et Turok ont ​​élaboré une solution aussi explicite. Tout d'abord, en janvier, alors qu'ils jouaient avec des cosmologies jouets, ils ont remarqué que l'ajout de radiations à l'espace-temps de De Sitter ne gâchait pas la simplicité requise pour faire tourner l'univers par Wick.

Puis, au cours de l’été, ils ont découvert que la technique résisterait même à l’inclusion désordonnée de matière. La courbe mathématique décrivant l’histoire plus complexe de l’expansion relevait toujours d’un groupe particulier de fonctions faciles à manipuler, et le monde de la thermodynamique restait accessible. "Cette rotation de Wick est une affaire trouble lorsque l'on s'éloigne d'un espace-temps très symétrique", a déclaré Guilherme Leite Pimentel , cosmologiste à la Scuola Normale Superiore de Pise, en Italie. "Mais ils ont réussi à le trouver."

En faisant tourner Wick l’histoire de l’expansion en montagnes russes d’une classe d’univers plus réaliste, ils ont obtenu une équation plus polyvalente pour l’entropie cosmique. Pour une large gamme de macroétats cosmiques définis par le rayonnement, la matière, la courbure et une densité d'énergie sombre (tout comme une plage de températures et de pressions définit différents environnements possibles d'une pièce), la formule crache le nombre de microétats correspondants. Turok et Boyle ont publié leurs résultats en ligne début octobre.

Les experts ont salué le résultat explicite et quantitatif. Mais à partir de leur équation d’entropie, Boyle et Turok ont ​​tiré une conclusion non conventionnelle sur la nature de notre univers. "C'est là que cela devient un peu plus intéressant et un peu plus controversé", a déclaré Hertog.

Boyle et Turok pensent que l'équation effectue un recensement de toutes les histoires cosmiques imaginables. Tout comme l'entropie d'une pièce compte toutes les façons d'arranger les molécules d'air pour une température donnée, ils soupçonnent que leur entropie compte toutes les façons dont on peut mélanger les atomes de l'espace-temps et se retrouver avec un univers avec une histoire globale donnée. courbure et densité d’énergie sombre.

Boyle compare le processus à l'examen d'un gigantesque sac de billes, chacune représentant un univers différent. Ceux qui ont une courbure négative pourraient être verts. Ceux qui ont des tonnes d'énergie sombre pourraient être des yeux de chat, et ainsi de suite. Leur recensement révèle que l’écrasante majorité des billes n’ont qu’une seule couleur – le bleu, par exemple – correspondant à un type d’univers : un univers globalement semblable au nôtre, sans courbure appréciable et juste une touche d’énergie sombre. Les types de cosmos les plus étranges sont extrêmement rares. En d’autres termes, les caractéristiques étrangement vanille de notre univers qui ont motivé des décennies de théorie sur l’inflation cosmique et le multivers ne sont peut-être pas étranges du tout.

"C'est un résultat très intrigant", a déclaré Hertog. Mais " cela soulève plus de questions que de réponses ".

Compter la confusion

Boyle et Turok ont ​​calculé une équation qui compte les univers. Et ils ont fait l’observation frappante que des univers comme le nôtre semblent représenter la part du lion des options cosmiques imaginables. Mais c’est là que s’arrête la certitude.

Le duo ne tente pas d’expliquer quelle théorie quantique de la gravité et de la cosmologie pourrait rendre certains univers communs ou rares. Ils n’expliquent pas non plus comment notre univers, avec sa configuration particulière de parties microscopiques, est né. En fin de compte, ils considèrent leurs calculs comme un indice permettant de déterminer quels types d’univers sont préférés plutôt que comme quelque chose qui se rapproche d’une théorie complète de la cosmologie. "Ce que nous avons utilisé est une astuce bon marché pour obtenir la réponse sans connaître la théorie", a déclaré Turok.

Leurs travaux revitalisent également une question restée sans réponse depuis que Gibbons et Hawking ont lancé pour la première fois toute l’histoire de l’entropie spatio-temporelle : quels sont exactement les micro-états que compte l’astuce bon marché ?

"L'essentiel ici est de dire que nous ne savons pas ce que signifie cette entropie", a déclaré Henry Maxfield , physicien à l'Université de Stanford qui étudie les théories quantiques de la gravité.

En son cœur, l’entropie résume l’ignorance. Pour un gaz constitué de molécules, par exemple, les physiciens connaissent la température – la vitesse moyenne des particules – mais pas ce que fait chaque particule ; l'entropie du gaz reflète le nombre d'options.

Après des décennies de travaux théoriques, les physiciens convergent vers une vision similaire pour les trous noirs. De nombreux théoriciens pensent aujourd'hui que la zone de l'horizon décrit leur ignorance de ce qui s'y trouve, de toutes les façons dont les éléments constitutifs du trou noir sont disposés de manière interne pour correspondre à son apparence extérieure. (Les chercheurs ne savent toujours pas ce que sont réellement les microétats ; les idées incluent des configurations de particules appelées gravitons ou cordes de la théorie des cordes.)

Mais lorsqu’il s’agit de l’entropie de l’univers, les physiciens se sentent moins sûrs de savoir où se situe leur ignorance.

En avril, deux théoriciens ont tenté de donner à l’entropie cosmologique une base mathématique plus solide. Ted Jacobson , physicien à l'Université du Maryland réputé pour avoir dérivé la théorie de la gravité d'Einstein de la thermodynamique des trous noirs, et son étudiant diplômé Batoul Banihashemi ont explicitement défini l'entropie d'un univers de Sitter (vacant et en expansion). Ils ont adopté la perspective d’un observateur au centre. Leur technique, qui consistait à ajouter une surface fictive entre l'observateur central et l'horizon, puis à rétrécir la surface jusqu'à ce qu'elle atteigne l'observateur central et disparaisse, a récupéré la réponse de Gibbons et Hawking selon laquelle l'entropie est égale à un quart de la surface de l'horizon. Ils ont conclu que l’entropie de De Sitter compte tous les microétats possibles à l’intérieur de l’horizon.

Turok et Boyle calculent la même entropie que Jacobson et Banihashemi pour un univers vide. Mais dans leur nouveau calcul relatif à un univers réaliste rempli de matière et de rayonnement, ils obtiennent un nombre beaucoup plus grand de microétats – proportionnels au volume et non à la surface. Face à ce conflit apparent, ils spéculent que les différentes entropies répondent à des questions différentes : la plus petite entropie de De Sitter compte les microétats d'un espace-temps pur délimité par un horizon, tandis qu'ils soupçonnent que leur plus grande entropie compte tous les microétats d'un espace-temps rempli d'espace-temps. matière et énergie, tant à l’intérieur qu’à l’extérieur de l’horizon. "C'est tout un shebang", a déclaré Turok.

En fin de compte, régler la question de savoir ce que comptent Boyle et Turok nécessitera une définition mathématique plus explicite de l’ensemble des microétats, analogue à ce que Jacobson et Banihashemi ont fait pour l’espace de Sitter. Banihashemi a déclaré qu'elle considérait le calcul d'entropie de Boyle et Turok " comme une réponse à une question qui n'a pas encore été entièrement comprise ".

Quant aux réponses plus établies à la question " Pourquoi cet univers ? ", les cosmologistes affirment que l’inflation et le multivers sont loin d’être morts. La théorie moderne de l’inflation, en particulier, est parvenue à résoudre bien plus que la simple question de la douceur et de la planéité de l’univers. Les observations du ciel correspondent à bon nombre de ses autres prédictions. L'argument entropique de Turok et Boyle a passé avec succès un premier test notable, a déclaré Pimentel, mais il lui faudra trouver d'autres données plus détaillées pour rivaliser plus sérieusement avec l'inflation.

Comme il sied à une grandeur qui mesure l’ignorance, les mystères enracinés dans l’entropie ont déjà servi de précurseurs à une physique inconnue. À la fin des années 1800, une compréhension précise de l’entropie en termes d’arrangements microscopiques a permis de confirmer l’existence des atomes. Aujourd'hui, l'espoir est que si les chercheurs calculant l'entropie cosmologique de différentes manières peuvent déterminer exactement à quelles questions ils répondent, ces chiffres les guideront vers une compréhension similaire de la façon dont les briques Lego du temps et de l'espace s'empilent pour créer l'univers qui nous entoure.

"Notre calcul fournit une énorme motivation supplémentaire aux personnes qui tentent de construire des théories microscopiques de la gravité quantique", a déclaré Turok. "Parce que la perspective est que cette théorie finira par expliquer la géométrie à grande échelle de l'univers."

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Wood, 17 nov 2022

[ constante fondamentale ] [ 1/137 ]

 

Commentaires: 0

Ajouté à la BD par miguel