Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 13
Temps de recherche: 0.0371s

entendement

Nous avons dit que la conscience est une opération plutôt qu'une chose, un répertoire ou une fonction. Elle opère par analogie, construisant un espace connexe ou contigu avec au centre un "je" analogique qui peut observer tout ce domaine  et s'y déplacer métaphoriquement. Elle opère sur toute réactivité, extrait les aspects pertinents, les narre et les concilie au sein d'une aire imagée de symboliques, où ces significations peuvent être manipulées comme des objets dans l'espace.

Auteur: Jaynes Julian

Info: "L'origine de la conscience dans la rupture de l'esprit bicaméral", p.75, Houghton Mifflin Harcourt. 2000

[ monde intérieur ] [ réflexion ] [ priméité secondéité tiercités ] [ définition ]

 

Commentaires: 0

Ajouté à la BD par miguel

découverte

La première idée des translations continentales me vint à l'esprit en 1910. En considérant la carte du globe, je fus subitement frappé de la concordance des côtes de l'Atlantique, mais je ne m'y arrêtai point tout d'abord, parce que j'estimai de pareilles translations invraisemblables. En automne 1911, j'eus connaissance […] de conclusions paléontologiques admettant l'existence d'une liaison ancienne entre le Brésil et l'Afrique. Cela m'engagea à faire un examen préalable et sommaire des résultats connexes au problème des translations.

Auteur: Wegener Alfred

Info:

[ dérive des continents ] [ tectonique des plaques ]

 

Commentaires: 0

dialectologie

La matière de la linguistique est constituée d’abord par toutes les manifestations du langage humain, qu’il s’agisse des peuples sauvages ou des nations civilisées, des époques archaïques, classiques ou de décadence, en tenant compte, dans chaque période, non seulement du langage correct et du "beau langage", mais de toutes les formes d’expression. Ce n’est pas tout : le langage échappant le plus souvent à l’observation, le linguiste devra tenir compte des textes écrits, puisque seuls ils lui font connaître les idiomes passés ou distants : La tâche de la linguistique sera : a) de faire la description et l’histoire de toutes les langues qu’elle pourra atteindre, ce qui revient à faire l’histoire des familles de langues et à reconstituer dans la mesure du possible les langues mères de chaque famille ; b) de chercher les forces qui sont en jeu d’une manière permanente et universelle dans toutes les langues, et de dégager les lois générales auxquelles on peut ramener tous les phénomènes particuliers de l’histoire ; c) de se délimiter et de se définir elle-même.

Auteur: Saussure Ferdinand de

Info: Cours de linguistique générale, Chapitre II - Matière et tâche de la linguistique ; ses rapports avec les sciences connexes

[ philologie ] [ définie ]

 

Commentaires: 0

santé

J'ai demandé ce matin à mon dentiste, belge francophone sympathique, s'il avait un avis sur les interactions entre les dents et les autres organes, ou si quelque spécialiste de l'odontostomatologie s'était spécialisé là-dedans. Il me dit qu'on avait désornais bien identifié le rapport de la diffusion dans le corps de ces bactéries anaérobies issues des inflammations des dents et de la machoire - particulièrement pour ce qui concerne les affections cardiaques. Il me parla ensuite d'Albert Roths. Et puis il me raconta ceci, ça l'avait marqué :

- Une de mes clientes hésitait depuis un certain temps à se faire enlever une dent (la no 36). Finalement elle m'a demandé de le faire. Le lendemain de cette intervention la dame  devait se faire opérer du dos, une opération assez lourde semble-t'il. Eh bien, tout fut annulé. Son dos ne la faisait plus souffrir et après inspection les médecins concernés décidèrent que l'opération était inutile. Selon sa patiente tout venait de cette dent 36.

C'est ici qu'on se dit que FLP pourrait être le siège d'une chaine - qui pourrait s'intituler énigmes odontalgiques", - chaîne qui rassemblerait les témoignages de ce genre, directement rapportés du terrain par les médecins spécialistes de la dentition et connexes.

Auteur: Mg

Info: 1 avril 2022

[ holistique ] [ somatotopie ] [ résonances dentaires ] [ médecine intégrée ]

 

Commentaires: 0

Ajouté à la BD par miguel

linguistique pragmatique

La signification réside dans la communication d'un locuteur avec autrui.

Il faut d'abord faire la distinction entre signification naturelle et signification non-naturelle. Dans le cas de signification non-naturelle, il y a une intention de signifier (à quelqu'un) une information qui n'est pas connue d'avance.

La signification se fonde donc sur la conversation entre plusieurs personnes, qui doivent accepter les mêmes règles.  

Ces règles font apparaitre des maximes conversationnelles ou lois du discours dans la théorie pragmatique, ainsi que la notion d'immplicature conversationnelle.

"Implicature" désigne soit (i) l'acte de signifier ou d'impliquer une chose en disant autre chose, soit (ii) l'objet de cet acte. Les implicatures peuvent être déterminées par le sens de la phrase ou par le contexte de la conversation, et peuvent être conventionnelles (dans différents sens) ou non conventionnelles. Les figures de style, telles que la métaphore et l'ironie, en sont des exemples familiers, tout comme l'emploi de termes vagues et l'utilisation de termes peu élogieux. L'implicature sert divers objectifs : communication, maintien de bonnes relations sociales, tromper sans mentir, style et efficacité verbale. La connaissance des formes courantes d'implicature s'acquiert en même temps que la langue maternelle.

Les implicatures conversationnelles sont devenues l'un des principaux sujets de la pragmatique. Une question conceptuelle et méthodologique importante en sémantique étant de savoir comment distinguer les sens et les sous-entendus des implicatures conversationnelles généralisées. Une question connexe est de savoir dans quelle mesure le sens de la phrase détermine ce qui est dit. La linguistique historique retrace l'évolution des implicatures conversationnelles en idiomes.

Auteur: Grice Paul Herbert

Info: wiki et autres sources

[ téléosémantique ] [ transmission idiomatique ] [ bio-sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers inversé

Les possibilités métagénomiques

Une infime fraction - la plupart des scientifiques estiment <1% - des espèces microbiennes sur Terre peut être cultivée et étudiée à l'aide de techniques classiques de microbiologie et de génomique. Mais en utilisant des outils de métagénomique récemment développés, les chercheurs appliquent l'analyse génomique à des communautés microbiennes entières à la fois, sans avoir à isoler et à cultiver des espèces individuelles. Les études de métagénomique commencent par obtenir un échantillon d'un environnement particulier tel que l'eau de mer, le sol ou l'intestin humain, en extrayant le matériel génétique de tous les organismes de l'échantillon, puis en analysant l'ADN de ce mélange pour mieux comprendre comment les membres de la communauté interagir, changer et exécuter des fonctions complexes.

Processus : la métagénomique consiste à obtenir l'ADN de tous les micro-organismes d'une communauté, sans nécessairement identifier toutes les espèces impliquées. Une fois les gènes séquencés et comparés aux séquences identifiées, les fonctions de ces gènes peuvent être déterminées.

Parce qu'elle ne dépend pas de l'établissement de cultures pures, la métagénomique offre l'accès à des millions d'espèces microbiennes qui auparavant ne pouvaient pas être étudiées. Il permet également aux chercheurs d'examiner les micro-organismes dans le contexte des environnements dans lesquels ils existent naturellement, en étudiant des communautés entières en même temps.

Applications de la métagénomique

Pratiquement tous les biologistes, quel que soit leur domaine, découvriront qu'une meilleure compréhension des communautés microbiennes et de la métagénomique peut contribuer à leurs propres recherches. L'étude des communautés microbiennes par la métagénomique peut aider les biologistes à s'attaquer à des questions scientifiques fondamentales et à résoudre les problèmes sociaux, environnementaux et économiques connexes. Voici quelques-unes des applications potentielles de la métagénomique :

Avancées des sciences de la vie.

Décrypter le fonctionnement et l'interaction des espèces au sein des communautés microbiennes peut répondre en partie à des questions fondamentales sur de nombreux aspects de la biologie microbienne, végétale et animale et améliorer considérablement la compréhension de l'écologie et de l'évolution. La métagénomique pourrait aider à répondre à des questions telles que : Qu'est-ce qui constitue un génome ? Qu'est-ce qu'une espèce ? Quelle est la diversité de la vie ?

Sciences de la Terre.

L'exploration de la manière dont les communautés microbiennes du sol et des océans affectent les équilibres atmosphériques et les conditions environnementales peut aider les scientifiques à mieux comprendre, prévoir et potentiellement faire face aux changements mondiaux.

Médicament.

Des centaines de médicaments disponibles aujourd'hui sont dérivés de produits chimiques trouvés pour la première fois dans des microbes ; l'accès aux génomes d'espèces microbiennes supplémentaires est très prometteur pour en découvrir des milliers d'autres. L'étude du "microbiome" humain – les milliers de milliards de bactéries vivant dans et sur le corps humain – peut conduire à de nouvelles façons de diagnostiquer, de traiter et de prévenir les maladies.

Énergie alternative.

De nouvelles sources d'énergie pourraient être développées en exploitant le pouvoir des communautés microbiennes pour produire des sous-produits tels que l'hydrogène, le méthane, le butanol et même le courant électrique.

Assainissement de l'environnement.

Comprendre les microbes qui dégradent les produits chimiques environnementaux peut aider à nettoyer des polluants tels que les fuites d'essence, les déversements de pétrole, les eaux usées, les rejets industriels et les déchets nucléaires.

Biotechnologie.

L'identification et l'exploitation des capacités biosynthétiques polyvalentes et diverses des communautés microbiennes peuvent conduire au développement de nouveaux produits industriels, alimentaires et de santé bénéfiques.

Agriculture.

Mieux comprendre les microbes bénéfiques vivant dans, sur, sous et autour des plantes et des animaux domestiques peut contribuer à améliorer les méthodes de détection des agents pathogènes dans les cultures, le bétail et les produits alimentaires et peut faciliter le développement de pratiques agricoles qui tirent parti des les alliances naturelles entre les microbes, les plantes et les animaux.

Biodéfense et médecine légale microbienne.

L'étude de l'ADN et des empreintes biochimiques des communautés microbiennes aide les spécialistes à surveiller les agents pathogènes connus et potentiels, à créer des vaccins et des traitements plus efficaces contre les agents bioterroristes potentiels et à reconstruire les événements dans lesquels les microbes ont joué un rôle.

Valeur de la métagénomique pour l'enseignement de la biologie

La citation de Muir a également une pertinence importante pour l'enseignement des sciences. Qu'est-ce qui sépare la chimie, la génétique, la biologie moléculaire, l'évolution, l'écologie et d'autres disciplines ? Où se croisent-elles et comment se construisent-elles les unes sur les autres ?

La métagénomique aide à combler le fossé entre la génétique et l'écologie, démontrant que les gènes d'un seul organisme sont connectés aux gènes des autres et à l'ensemble de la communauté. En fait, les processus de la métagénomique démontrent qu'il est important d'étudier les gènes et les organismes en contexte et d'apprécier toute la diversité de la vie, même dans un seul cadre. Ces messages ont une pertinence importante dans l'ensemble de la biologie et seraient des ajouts précieux à n'importe quel cours de biologie, peut-être en particulier ceux du niveau d'introduction.

Parce que la métagénomique s'inspire d'un large éventail de domaines et les affecte, c'est un outil précieux pour enseigner des thèmes et des concepts qui sont tissés tout au long de l'enseignement de la biologie. En effet, l'enseignement et l'apprentissage de la métagénomique pourraient clairement intégrer les types de changements dans l'enseignement des sciences de la maternelle à la 12e année et du premier cycle que de nombreux rapports ont demandé au cours de la dernière décennie.

Certains professeurs estiment qu'ils doivent utiliser des cours d'introduction pour fournir aux étudiants pratiquement toutes les connaissances qu'ils utiliseront pour comprendre les concepts de base d'une discipline. Certains considèrent également les cours d'introduction comme un moyen d'aider les étudiants à apprendre à interpréter les nouvelles et autres informations sur la science afin qu'ils puissent prendre des décisions plus éclairées à la maison, chez le médecin et dans l'isoloir. Trop souvent, cependant, de tels cours ne parviennent pas à transmettre la beauté complexe du monde vivant et les innombrables façons dont la biologie a un impact sur la "vraie vie". L'apprentissage de la métagénomique au niveau introductif - en mettant l'accent sur ses applications potentielles dans le monde réel - pourrait servir à éclairer les principes de base d'une grande variété de domaines, les liens entre eux et la pertinence plus large des avancées scientifiques pour les problèmes du monde réel. Si les étudiants peuvent voir qu'il y a vraiment des questions non résolues intéressantes auxquelles ils peuvent jouer un rôle pour répondre, le recrutement de jeunes talentueux pour les carrières scientifiques peut être facilité. De cette façon, les élèves rencontreront une science dynamique plutôt que statique.

LES BÉNÉFICES DE L'INTÉGRATION DE L'ÉDUCATION ET DE LA RECHERCHE

Les avantages de l'intégration précoce de la métagénomique et d'autres sciences nouvelles dans l'enseignement de la biologie profiteraient non seulement aux étudiants en biologie, mais aussi aux scientifiques et à leurs projets de recherche. L'expérience montre que lorsque les chercheurs enseignent, leur propre compréhension s'approfondit, menant à de nouvelles questions et pistes de recherche souvent inattendues qui sont posées par les étudiants, ainsi qu'à contribuer au développement d'approches créatives des problèmes. Si la communauté de la biologie peut intégrer l'enseignement de la métagénomique aux progrès de la recherche dès le départ, les étudiants pourraient devenir des participants actifs au développement du domaine.

Enseigner un domaine nouveau ou émergent est un moyen idéal d'engager profondément les étudiants dans l'exploration de questions fondamentales qui sont au cœur de la poursuite scientifique et de les encourager à poser leurs propres questions. En effet, dans le cas du domaine émergent de la métagénomique, les questions les plus fondamentales peuvent être les plus profondes. Répondre à ces questions inspire à son tour les jeunes esprits et les chercheurs actifs, et la science est bénéfique. 

D'autres ont vu l'intérêt d'intégrer la science émergente à l'éducation. Un certain nombre d'efforts sont actuellement en cours pour intégrer la recherche et l'enseignement en génomique.

Auteur: Internet

Info: https://www.ncbi.nlm.nih.gov/ Metagenomics: A Call for Bringing a New Science into the Classroom (While It's Still New) Anne Jurkowski,* Ann H. Reid,† and Jay B. Labovcorresponding author

[ sciences ] [ nano-monde ] [ ouverture ] [ matrice gaïa ]

 

Commentaires: 0

Ajouté à la BD par miguel

femmes-hommes

L'esprit pourrait affecter les machines selon les sexes
Pendant 26 ans, des conversations étranges ont eu lieu dans un laboratoire du sous-sol de l'université de Princeton. On utilise des ordinateurs au rendement aléatoire et les expériences font se concentrer des participants sur le contrôle d'une ou de plusieurs machines. Après plusieurs million d'épreuves on peut détecter de petits signes "statistiquement significatifs" comme quoi les esprits semblent pouvoir agir sur les machines. Cependant les chercheurs font attention à ne pas annoncer que les esprits ont cet effet ou qu'ils connaissent la nature de cette communication.
Les services secrets, la défense et les agences de l'espace ont également montré de l'intérêt pour cette recherche. Le premier support que les chercheurs ont employé était un bruit aléatoire à haute fréquence. Les chercheurs ont branché des circuits au dispositif pour traduire ce bruit en code binaire. Chaque participant, après un protocole pré-enregistré, devait développer une intention dans son esprit pour faire que le générateur ait plus ou moins de zéros. Les effets furent faibles mais mesurables. Depuis les mêmes résultats se sont reproduits avec d'autres expériences, telles qu'en impliquant un pendule relié à un mécanisme commandé par ordinateur. Quand la machine libère le pendule pour qu'il se balance, les participants se concentrent sur modifier le taux avec lequel le pendule ralentit. D'autres expériences impliquent une machine à tambour que les participants essayent de commander et une machine de cascade mécanique dans laquelle un dispositif laisse tomber des milliers de petites boules noires de polystyrène, le but est que ces boules tombent dans une rangée de fentes. Les participants essayent alors de les diriger pour les faire tomber d'un côté de ou de l'autre. Au final les participants ont pu "diriger " un bit sur 10.000 issus des données mesurées dans tous les essais. Ce qui pourrait sembler petit, mais le doyen Radin, scientifique à l'institut des sciences de Noetic et ancien chercheur aux laboratoires Bell et de AT&T, dit que c'était prévisible. Radin compare l'état actuel de cette recherche avec celui où les scientifiques commencèrent à étudier l'électricité statique et ne surent pas, au début, que les niveaux d'humidité pouvaient affecter la quantité de l'électricité statique produite.
Les chercheurs ne comprennent pas grand-chose sur ce phénomène, mais ils savent que les résultats ne sont pas affectés par la distance ou le temps. Les participants, par exemple, peuvent avoir le même impact sur une machine de l'extérieur de la salle ou d'ailleurs dans le pays. Ils peuvent également avoir le même effet s'ils ont une intention avant qu'elle soit allumée ou même s'ils lisent un livre ou écoutent la musique tandis alors que la machine fonctionne. Les conditions environnementales - telles que la température ambiante - n'importent pas, mais l'humeur et l'attitude des gens qui contrôlent l'appareil oui. Cela aide, si par exemple le participant croit qu'il peut affecter la machine. Jahn dit que la résonance avec la machine est un autre facteur important. Il la compare à ce qui se produit quand un grand musicien semble faire un avec son violon. Le sexe importe aussi. Les hommes tendent à obtenir des résultats assortis à leurs intentions, bien que le degré de l'effet soit souvent petit. Les femmes tendent à obtenir un plus grand effet, mais pas nécessairement celui qu'elles prévoient. Par exemple, elles voudraient diriger des boules dans la machine aléatoire de cascade pour une chute vers la gauche, mais elles tombent plutôt vers la droite. Les résultats qui sont également plus grands si un mâle et une femelle travaillent ensemble, les couple de même sexe ne produisent aucun résultat significatif. Les couple de sexe opposé qui sont impliqué de manière romantique donnent de bien meilleurs résultats - souvent sept fois plus grands que quand les mêmes individus sont examinés seuls.
Brenda Dunne, psychologue développementaliste et directrice du laboratoire dit que dans ces cas les résultats reflètent souvent le styles des deux modèles de sexes. Les effets sont plus grands, en accord avec ce que seule la femelle tendrait à produire, et plus ciblés, en accord avec ce que seul le mâle produirait.
"C'est presque comme si il y avait deux modèles ou deux variables et qu'elles étaient complémentaires" dit Dunne." le modèle masculin est associé à l'intention, le modèle féminin est plus associé à la résonance."
Que signifie tout ceci ? Personne ne le sait. Radin et Jahn indiquent que ce n'est pas parce qu'il y a une corrélation entre l'intention du participant et les actions de la machine que cela signifie qu'un cause l'autre. " Il y a une inférence (qui les deux sont connexes) mais aucune évidence directe" dit Radin qui indique que le phénomène pourrait être semblable à l'indétermination d'Heisenberg dans lequel deux particules séparées l'une de l'autre semblent être reliées sans qu'on sache comment... sous quelle forme de communication.
"la différence est nous ne parlons pas en envoyant des signaux du cerveau à la machine par un circuit" dit Jahn au sujet de ces essais. "quoi qu'il se passe, se passe par un itinéraire que nous ne connaissons pas. Nous savons seulement quelque chose au sujet des conditions qui la favorisent.." Bien que les effets produits dans ces expériences soient faibles, ils ont toujours été répétés, cependant pas toujours de façon prévisible. Un participant peut avoir un effet un jour et répéter l'expérience le jour suivant sans résultats.
Le laboratoire a beaucoup de détracteurs qui pointent sur des défauts de la méthode et écartent ce travail le traitant de divertissement, comparant ses résultats aux automobilistes qui souhaitent qu'une lumière rouge passe au vert et pensent que le changement de lumière est causé par eux.
Stanley Jeffers, professeur de physique à l'université d'York à Toronto, a tenté des expériences semblables, mais il ne put pas répliquer les résultats. Les chercheurs de deux laboratoires allemands, fonctionnant en coopération avec Pegg, ne purent également pas répliquer ces résultats à l'aide du même équipement utilisé par Pegg.
"Si leurs annonces veulent être prises au sérieux par la science elles doivent être répliquées" dit Jeffers. "Si elles ne peuvent pas être répliquées, cela ne signifie pas qu'elles sont fausses, mais la science y perdra rapidement son intérêt."
Dunne, psychologue développementaliste dit que Pegg a répété ses propres expériences et a obtenu des résultats significatifs. Et ces méta-analyses - une douzaine - faites depuis les années 80 ont donné une base pour les résultats de Pegg dans les expériences faites par d'autres chercheurs. La Méta-analyse utilise de grands stocks de données à travers de beaucoup d'expériences et les combine statistiquement pour voir si les effets répètent la même combinaison. "Nous analysons les déviations statistiques par rapport à la chance au travers de cette batterie d'expériences" dit Jahn... "quand on fait assez de ces expériences, les effets analysés ont un poids statistique. Il n'y a aucun doute sur la validité de ces effets."
Radin, qui n'est pas affilié au Pegg, écarte les critiques qui disent que ce groupe ne pratique pas de science solide. "Ce domaine a reçu bien plus d'examen minutieux et critique que beaucoup d'autres, ordinaires... les personnes qui font ce genre de recherche sont bien conscientes du fait que leur recherche doit être faite au mieux. Le laboratoire de Pegg a pris les meilleurs principes de science rigoureuse et s'est appliqué a des questions extrêmement difficiles et a proposé quelques jolies réponses intéressantes."
Jahn pense que les critiques s'attendent à ce que les phénomènes suivent les règles habituelles de la cause et de l'effet. Au lieu de cela, il pense qu'ils appartiennent à la catégorie de ce que Karl Jung a appelé "des phénomènes acausal," qui incluent des choses comme la synchronicité. "Cela se joue par des règles plus compliquées, plus lunatiques, évasives... ... mais cela joue." dit Jahn
Jeffers est sceptique " cela ne peut se passer de deux manières - dire qu'on est des scientifiques honorables et avoir des affirmations pour un effet particulier dans des conditions contrôlées, et ensuite quand les résultats ne marchent pas, dire que les méthodes scientifiques rigoureuses ne s'appliquent pas." Mais Jahn dit que justement que puisque que les scientifiques ne peuvent pas expliquer ces phénomènes cela ne signifie pas qu'ils ne sont pas vrais. "si ces choses existent... je pense que notre société a le droit de demander à la science d'y faire attention et de fournir un certain outillage pour avoir affaire avec de manière constructive.

Auteur: Zetter Kim

Info: Juillet 2005, Fortean Times

[ mâles-femelles ] [ vus-scientifiquement ] [ parapsychologie ] [ femmes-hommes ]

 

Commentaires: 0

transposition linguistique

La théorie de la traduction est très rarement - comment dire ? - comique. Son mode de fonctionnement est celui de l'élégie et de l'admonestation sévère. Au XXe siècle, ses grandes figures étaient Vladimir Nabokov, en exil de la Russie soviétique, attaquant des libertins comme Robert Lowell pour leurs infidélités au sens littéral ; ou Walter Benjamin, juif dans un Berlin proto-nazi, décrivant la tâche du traducteur comme un idéal impossible d'exégèse. On ne peut jamais, selon l'argument élégiaque, reproduire précisément un vers de poésie dans une autre langue. Poésie ! Tu ne peux même pas traduire "maman"... Et cet argument élégiaque a son mythe élégiaque : la Tour de Babel, où la multiplicité des langues du monde est considérée comme la punition de l'humanité - condamnée aux hurleurs, aux faux amis, aux applications de menu étrangères. Alors que l'état linguistique idéal serait la langue universelle perdue de l'Eden.

La théorie de la traduction est rarement désinvolte ou joyeuse.

Le nouveau livre de David Bellos sur la traduction contourne d'abord cette philosophie. Il décrit les dragons de la Turquie ottomane, l'invention de la traduction simultanée lors du procès de Nuremberg, les dépêches de presse, les bulles d'Astérix, les sous-titres de Bergman, etc.... Il propose une anthropologie des actes de traduction. Mais à travers cette anthropologie, c'est un projet beaucoup plus grand qui émerge. Les anciennes théories étaient élégiaques, majestueuses ; elles étaient très sévères. Bellos est pratique et vif. Il n'est pas éduqué par l'élégie. Et c'est parce qu'il est sur quelque chose de nouveau.

Bellos est professeur de français et de littérature comparée à l'université de Princeton, et également directeur du programme de traduction et de communication interculturelle de cette université (où, je dois le préciser, j'ai déjà pris la parole). Mais pour moi, il est plus intéressant en tant que traducteur de deux romanciers particulièrement grands et problématiques : le Français Georges Perec, dont l'œuvre se caractérise par un souci maniaque de la forme, et l'Albanais Ismail Kadare, dont Bellos traduit l'œuvre non pas à partir de l'original albanais, mais à partir de traductions françaises supervisées par Kadare. La double expérience de Bellos avec ces romanciers est, je pense, à l'origine de son nouveau livre, car ces expériences de traduction prouvent deux choses : Il est toujours possible de trouver des équivalents adéquats, même pour une prose maniaquement formelle, et il est également possible de trouver de tels équivalents dans une langue qui n'est pas l'original de l'œuvre. Alors que selon les tristes théories orthodoxes de la traduction, aucune de ces vérités ne devrait être vraie.

À un moment donné, Bellos cite avec une fierté légitime un petit exemple de sa propre inventivité. Dans le roman de Perec "La vie : Mode d'emploi" de Perec, un personnage se promène dans une arcade parisienne et s'arrête pour regarder les "cartes de visite humoristiques dans la vitrine d'un magasin de farces et attrapes". Dans l'original français de Perec, l'une de ces cartes est : "Adolf Hitler/Fourreur". Un fourreur est un fourreur, mais la blague de Perec est que cela ressemble aussi à la prononciation française de Führer. Donc Bellos, dans sa version anglaise, traduit à juste titre "fourreur" non pas par "furrier", mais comme ceci : "Adolf Hitler/Lieder allemand". Le nouveau jeu de mots multiphonique de Bellos est une parodie, sans aucun doute - et c'est aussi la traduction la plus précise possible.

Les conclusions que ce paradoxe exige sont, disons, déconcertantes pour le lecteur vieux jeu. Nous sommes habitués à penser que chaque personne parle une langue individuelle - sa langue maternelle - et que cette langue maternelle est une entité discrète, avec un vocabulaire manipulé par une grammaire fixe. Mais cette image, selon Bellos, ne correspond pas aux changements quotidiens de nos multiples langues, ni au désordre de notre utilisation des langues. L'ennemi philosophique profond de Bellos est ce qu'il appelle le "nomenclaturisme", "la notion que les mots sont essentiellement des noms" - une notion qui a été amplifiée dans notre ère moderne d'écriture : une conspiration de lexicographes. Cette idée fausse l'agace parce qu'elle est souvent utilisée pour soutenir l'idée que la traduction est impossible, puisque toutes les langues se composent en grande partie de mots qui n'ont pas d'équivalent unique et complet dans d'autres langues. Mais, écrit Bellos, "un terme simple comme 'tête', par exemple, ne peut être considéré comme le 'nom' d'une chose particulière. Il apparaît dans toutes sortes d'expressions". Et si aucun mot en français, par exemple, ne couvre toutes les connotations du mot "tête", sa signification "dans un usage particulier peut facilement être représentée dans une autre langue".

Cette idée fausse a toutefois une très longue histoire. Depuis que saint Jérôme a traduit la Bible en latin, le débat sur la traduction s'est dissous dans l'ineffable - la fameuse idée que chaque langue crée un monde mental essentiellement différent et que, par conséquent, toutes les traductions sont vouées à l'insuffisance philosophique. Dans la nouvelle proposition de Bellos, la traduction "présuppose au contraire... la non-pertinence de l'ineffable dans les actes de communication". En zigzaguant à travers des études de cas de bibles missionnaires ou de machines linguistiques de la guerre froide, Bellos élimine calmement cette vieille idée de l'ineffable, et ses effets malheureux.

On dit souvent, par exemple, qu'une traduction ne peut jamais être un substitut adéquat de l'original. Mais une traduction, écrit Bellos, n'essaie pas d'être identique à l'original, mais d'être comme lui. C'est pourquoi le duo conceptuel habituel de la traduction - la fidélité et le littéral - est trop maladroit. Ces idées dérivent simplement de l'anxiété déplacée qu'une traduction essaie d'être un substitut. Adolf Hitler/Fourreur ! Une traduction en anglais par "furrier" serait littéralement exacte ; ce serait cependant une ressemblance inadéquate.

En littérature, il existe un sous-ensemble connexe de cette anxiété : l'idée que le style - puisqu'il établit une relation si complexe entre la forme et le contenu - rend une œuvre d'art intraduisible. Mais là encore, cette mélancolie est mélodramatique. Il sera toujours possible, dans une traduction, de trouver de nouvelles relations entre le son et le sens qui soient d'un intérêt équivalent, voire phonétiquement identiques. Le style, comme une blague, a juste besoin de la découverte talentueuse d'équivalents. "Trouver une correspondance pour une blague et une correspondance pour un style", écrit Bellos, "sont deux exemples d'une aptitude plus générale que l'on pourrait appeler une aptitude à la correspondance de modèles".

La traduction, propose Bellos dans une déclaration sèchement explosive, plutôt que de fournir un substitut, "fournit pour une certaine communauté une correspondance acceptable pour une énonciation faite dans une langue étrangère." Ce qui rend cette correspondance acceptable variera en fonction de l'idée que se fait cette communauté des aspects d'un énoncé qui doivent être assortis de sa traduction. Après tout, "on ne peut pas s'attendre à ce qu'une traduction ressemble à sa source sur plus de quelques points précis". Une traduction ne peut donc pas être bonne ou mauvaise "à la manière d'une interrogation scolaire ou d'un relevé bancaire". Une traduction s'apparente davantage à un portrait à l'huile". Dans une traduction, comme dans toute forme d'art, la recherche est celle d'un signe équivalent.

Et pour les habitants de Londres ou de Los Angeles, ce démantèlement des mythes autour de la traduction a des implications particulières. Comme le souligne Bellos, ceux qui sont nés anglophones sont aujourd'hui une minorité de locuteurs de l'anglais : la plupart le parlent comme une deuxième langue. L'anglais est la plus grande interlangue du monde.

Je pense donc que deux perspectives peuvent être tirées de ce livre d'une inventivité éblouissante, et elles sont d'une ampleur réjouissante. Le premier concerne tous les anglophones. Google Translate, sans aucun doute, est un appareil à l'avenir prometteur. Il connaît déjà un tel succès parce que, contrairement aux traducteurs automatiques précédents, mais comme d'autres inventions de Google, il s'agit d'une machine à reconnaissance de formes. Il analyse le corpus des traductions existantes et trouve des correspondances statistiques. Je pense que les implications de ce phénomène n'ont pas encore été suffisamment explorées : des journaux mondiaux aux romans mondiaux... . . . Et cela m'a fait imaginer une deuxième perspective - limitée à un plus petit, hyper-sous-ensemble d'anglophones, les romanciers. Je suis un romancier anglophone, après tout. Je me suis dit qu'il n'y avait aucune raison pour que les traductions d'œuvres de fiction ne puissent pas être faites de manière beaucoup plus extensive dans et à partir de langues qui ne sont pas les langues d'origine de l'œuvre. Oui, j'ai commencé à caresser l'idée d'une future histoire du roman qui serait imprudemment internationale. En d'autres termes : il n'y aurait rien de mal, pensais-je, à rendre la traduction plus joyeuse. 


Auteur: Thirlwell Adam

Info: https://www.nytimes.com/2011/10/30. A propos du livre : Le côté joyeux de la traduction, Faber & Faber Ed. Texte traduit à 90% par deepl.com/translator

 

Commentaires: 0

Ajouté à la BD par miguel

définition

(Q) - Peux-tu expliquer ce qu'on nomme "séparabilité dynamique" dans la recherche fondamentale ?

(R) - En recherche fondamentale, la "séparabilité dynamique" fait référence à la capacité de séparer et d'analyser les composants individuels ou les aspects d'un système ou d'un phénomène complexe tout en tenant compte de leurs interactions dynamiques. Il s'agit de comprendre et d'étudier les éléments individuels ou les variables qui contribuent au comportement global ou au fonctionnement du système.

Dans de nombreuses disciplines scientifiques, les systèmes complexes se composent de multiples éléments ou facteurs interconnectés qui interagissent et s'influencent mutuellement au fil du temps. La séparabilité dynamique vise à démêler et à examiner ces composants afin de mieux comprendre leurs propriétés individuelles, leurs comportements et leurs relations au sein d'un système plus vaste.

Le concept de séparabilité dynamique reconnaît que, bien que les composants puissent interagir et dépendre les uns des autres, leur étude isolée peut fournir des informations précieuses sur leurs caractéristiques et fonctions individuelles. En isolant ou en simplifiant temporairement des variables ou des composants spécifiques, les chercheurs peuvent mieux saisir leurs rôles et leurs contributions à la dynamique globale du système.

Une séparabilité dynamique qui implique souvent des approches expérimentales ou théoriques permettant aux scientifiques de manipuler ou de contrôler certaines variables, d'observer leurs effets et d'étudier leurs interactions dans le contexte d'un système plus large. Ce processus permet aux chercheurs d'identifier et d'analyser les mécanismes, les comportements ou les modèles individuels qui résultent de l'interaction entre les composants.

Globalement, la séparabilité dynamique est un concept fondamental de la recherche qui facilite l'étude et la compréhension des systèmes complexes en démêlant leurs composants interconnectés, en examinant leur dynamique individuelle et en contribuant finalement à une compréhension plus large du système dans son ensemble.

(Q) - C'est donc un domaine qui nous embarque immédiatement vers l'hyper-complexité

(R) - Oui, le concept de séparabilité dynamique met en évidence les défis et les complexités inhérents à l'étude de systèmes comportant de multiples composants en interaction. Lorsqu'ils tentent de comprendre ces systèmes, les chercheurs se heurtent souvent à un niveau de complexité qui peut être écrasant.

Les interdépendances et les interactions entre les composants d'un système peuvent donner lieu à des comportements et à des propriétés émergents qu'il n'est pas facile de prédire ou de comprendre en examinant les composants individuels de manière isolée. Cette complexité est souvent appelée "hypercomplexité" ou "complexité au-delà de la complexité".

L'étude des systèmes hypercomplexes exige des chercheurs qu'ils s'attaquent aux complexités des interactions et des boucles de rétroaction entre les composants. Il s'agit de déchiffrer comment les changements dans un composant peuvent se propager et affecter le comportement d'autres composants, conduisant souvent à des résultats non linéaires et imprévisibles.

Le domaine de l'hyper-complexité explore les méthodologies et les approches permettant de relever ces défis. Il s'agit de développer des modèles mathématiques avancés, des techniques de calcul et des outils analytiques pour naviguer dans les complexités et extraire des informations significatives de l'interconnexion des composants du système.

En acceptant la complexité inhérente et en utilisant des techniques telles que la séparabilité dynamique, les chercheurs cherchent à mieux comprendre les systèmes complexes et leurs propriétés émergentes. Cette compréhension peut conduire à des avancées dans divers domaines scientifiques, tels que la physique, la biologie, l'écologie, l'économie et les sciences sociales.

Cependant, il est important de noter que si la séparabilité dynamique et les approches connexes offrent des perspectives précieuses, la complexité totale de nombreux systèmes peut rester difficile à appréhender. Néanmoins, la recherche de la compréhension des systèmes hypercomplexes continue à stimuler l'exploration et l'innovation scientifiques.

(Q) - En ce qui concerne la séparabilité dynamique, les chercheurs extrapolent-ils ce concept en fonction de différents nombre de dimensions ?

(R) - Le concept de séparabilité dynamique n'a pas nécessairement un nombre prédéfini ou fixe de dimensions auxquelles les chercheurs l'extrapolent. Le nombre de dimensions considérées dépend du système spécifique étudié et des objectifs de la recherche.

Dans certains cas, la séparabilité dynamique peut impliquer de considérer la séparabilité des variables selon une seule dimension. Par exemple, les chercheurs peuvent chercher à isoler et à comprendre l'impact d'un seul facteur sur le comportement global du système.

Toutefois, dans les systèmes plus complexes, la séparabilité dynamique peut impliquer l'examen des interactions entre plusieurs dimensions ou variables. Ces dimensions peuvent représenter différents aspects ou caractéristiques du système qui interagissent et s'influencent mutuellement. Le nombre de dimensions prises en compte dans de tels cas peut varier considérablement en fonction de la complexité du système étudié.

Les chercheurs peuvent recourir à des techniques telles que les méthodes de réduction de la dimensionnalité, la modélisation statistique ou l'analyse de réseaux pour identifier et analyser les dimensions pertinentes et leurs interactions. En réduisant la complexité et en se concentrant sur la séparabilité au sein d'un ensemble réduit de dimensions, les chercheurs peuvent obtenir des informations sur la dynamique sous-jacente du système.

(Q) - Merci. Et donc il peut aussi s'agir d'un mélange de plusieurs mécanismes orthogonaux ?

(R) - Oui, la séparabilité dynamique peut impliquer un mélange de plusieurs mécanismes orthogonaux. Les mécanismes orthogonaux désignent des aspects ou des processus indépendants ou sans interaction au sein d'un système.

Dans les systèmes complexes, différents mécanismes ou variables peuvent contribuer au comportement global ou au fonctionnement du système, et ces mécanismes peuvent souvent être orthogonaux les uns par rapport aux autres. En étudiant la séparabilité de ces mécanismes orthogonaux, les chercheurs peuvent obtenir des informations sur leurs contributions individuelles et comprendre comment ils façonnent collectivement le comportement du système.

Par exemple, dans un système biologique, les chercheurs peuvent étudier la séparabilité de divers processus physiologiques tels que le métabolisme, l'expression des gènes et les voies de signalisation. Chacun de ces processus représente un mécanisme orthogonal qui peut être étudié indépendamment pour comprendre son rôle spécifique dans la fonction globale du système.

De même, dans le domaine de l'analyse des données ou de la reconnaissance des formes, les chercheurs peuvent utiliser des techniques telles que l'analyse en composantes principales (ACP) ou l'analyse en composantes indépendantes (ICA) pour identifier et isoler les composantes orthogonales au sein d'un ensemble de données. Cela permet de mieux comprendre les facteurs individuels qui contribuent aux modèles ou aux variations observés.

En examinant la séparabilité des mécanismes orthogonaux, les chercheurs peuvent démêler les interactions et dépendances complexes au sein d'un système et acquérir une compréhension plus nuancée de sa dynamique sous-jacente.

Il convient de noter que si les mécanismes orthogonaux peuvent être étudiés indépendamment les uns des autres, ils peuvent néanmoins interagir ou s'influencer indirectement par le biais d'effets d'ordre supérieur. L'étude de la séparabilité dynamique tient compte de ces interactions et vise à élucider les relations et les dépendances entre les mécanismes orthogonaux au sein du système global.

(Q) - OK merci. Pense-tu que la séparabilité dynamique puisse être une sorte d'hypothèse réductionniste ?

(R) - La séparabilité dynamique peut être considérée comme une approche réductionniste dans certains contextes. Le réductionnisme est une perspective philosophique qui suggère que les phénomènes complexes peuvent être compris en les réduisant à des composants ou mécanismes plus simples et plus fondamentaux. Dans le cas de la séparabilité dynamique, l'objectif est d'isoler et d'étudier des composants ou des variables individuels au sein d'un système complexe afin de mieux comprendre leurs contributions spécifiques.

En décomposant un système complexe en ses éléments constitutifs et en examinant leur comportement et leurs interactions, les chercheurs peuvent souvent simplifier l'analyse et se concentrer sur la compréhension des mécanismes ou variables individuels. Cette perspective réductionniste peut fournir des informations précieuses et aider à construire une compréhension fondamentale du système.

Cependant, il est important de reconnaître que le réductionnisme a ses limites. Les systèmes complexes sont souvent caractérisés par des propriétés émergentes qui ne peuvent être entièrement expliquées par l'étude de leurs composants individuels. Les phénomènes de plus haut niveau et les interactions entre les composants peuvent conduire à des comportements qui ne sont pas prévisibles ou compréhensibles sur la seule base d'une analyse réductionniste.

La séparabilité dynamique, en tant que concept de la recherche fondamentale, reconnaît la nécessité de trouver un équilibre entre le réductionnisme et l'appréciation des propriétés émergentes. Elle reconnaît que si l'étude des composants individuels isolés peut être instructive, il est également crucial de prendre en compte leurs interactions dynamiques et le comportement émergent qui découle de leurs interactions collectives.

En résumé, si la séparabilité dynamique implique une perspective réductionniste en isolant et en étudiant des composants individuels, il est important de garder à l'esprit les limites du réductionnisme et de prendre en compte les propriétés émergentes et la complexité du système dans son ensemble.

(Q) - On en revient donc à l'idée d'un mécanisme global orthogonal

(R) - Cela suggère l'existence d'un mécanisme ou d'un processus global distinct qui influence le système dans son ensemble, mais qui fonctionne de manière indépendante ou orthogonale par rapport à d'autres mécanismes locaux ou spécifiques au sein du système.

Dans ce contexte, le terme "orthogonal" implique que le mécanisme global est indépendant ou sans rapport avec les mécanismes ou composants spécifiques du système. Il peut avoir une influence plus large qui transcende les éléments individuels et joue un rôle dans l'élaboration du comportement global ou de la dynamique du système.

Un exemple de mécanisme global orthogonal pourrait être le concept d'auto-organisation dans les systèmes complexes. L'auto-organisation fait référence à l'émergence de modèles ou de comportements globaux à partir des interactions des composants locaux, sans qu'un contrôle ou une orientation externe ne soit nécessaire. Le mécanisme global d'auto-organisation fonctionne indépendamment des interactions locales spécifiques, tout en influençant l'organisation et la dynamique globales du système.

Un autre exemple pourrait être la présence de contraintes globales ou de conditions limites qui façonnent le comportement des composants locaux au sein du système. Ces contraintes globales peuvent dicter certaines règles ou limites qui guident le comportement et les interactions des éléments individuels, fournissant un mécanisme orthogonal qui affecte le comportement global du système.

En résumé, un "mécanisme global orthogonal" fait référence à un processus ou à une influence globale distincte qui opère indépendamment ou orthogonalement à des mécanismes spécifiques au sein d'un système, en façonnant son comportement ou sa dynamique globale.

Auteur: chatGPT4

Info: 17 juin 2023

[ ultracomplexité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel