Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 81
Temps de recherche: 0.0637s

paléolinguistique

Le but de la reconstruction linguistique est d'établir la chronologie relative des étapes préhistoriques et des changements qui précèdent immédiatement les données les plus archaïques. Spéculer sur l'origine des catégories grammaticales telles que le genre, l'aspect, l'humeur, etc. est une entreprise glottogonique qui, étant donné son caractère hautement problématique, devrait être tenue à l'écart de la grammaire historique et comparative. 

L'expression "reconstruction interne" fut utilisée comme terme technique par Pisani, Hoenigswald, Bonfante et d'autres afin de désigner les conclusions diachroniques qui peuvent être tirées d'une analyse synchronique des données linguistiques sans ou avant d'avoir recours à la comparaison, à la géographie linguistique, à la "linguistique aréale" et à la glottochronologie. Les méthodes de reconstruction interne ont été appliquées à un degré croissant, plus ou moins consciemment et explicitement, par les néo-grammairiens. Ainsi, par exemple, ils ont rejeté la possibilité d'une scission phonétique spontanée et ont acquis, au moyen du concept de "loi phonétique", une assez bonne connaissance des changements phonétiques usuels. 

De même, en raison de l'élargissement constant du champ de la recherche linguistique, une attention de plus en plus grande a été accordée aux tendances générales dans le domaine de la sémantique. L'opposition entre diachronie et synchronie, impliquant des différences de buts et de méthodes linguistiques, n'est pas immédiatement donnée par le matériel à notre disposition. Le caractère à la fois transitoire et fluctuant des phénomènes linguistiques, l'hésitation entre procédures résiduelles et improductives d'une part, et les innovations et règles vivantes d'autre part, ont été fréquemment soulignés. Partout, une description "synchronique" complète d'une langue doit avoir recours aux notions d'archaïsme et d'innovation. L'éviction d'une forme ancienne par une nouvelle n'est pas un événement momentané mais un processus qui s'étend dans le temps et dans l'espace. Considéré du point de vue historique, le matériel linguistique, aussi restreint soit-il dans le temps et dans l'espace, est composé de couches chronologiques. Pour s'en rendre compte, il suffit de parcourir quelques pages d'une description minutieuse d'une langue moderne.

Face à la tâche de reconstruction des étapes linguistiques plus anciennes, les chercheurs ont été conscients de la difficulté d'une sélection appropriée du matériel. Les formes qui pourraient être nées indépendamment dans chacune des langues apparentées comme le résultat de règles de dérivation productive, par exemple γόνος = jána en védique, ne témoigne pas de l'existence d'un prototype i.e. (*ĝóno-). Meillet, entre autres, nous a appris que la reconstruction des étapes préhistoriques doit être basée sur les exceptions et les anomalies plutôt que sur les règles grammaticales d'une langue. Un autre principe important est que si une forme est restreinte aux seuls contextes résiduels (idiomes), alors que l'utilisation de son ou ses synonymes est libre, cette forme doit représenter un stade plus ancien. De tels principes méthodologiques appartiennent à ce que l'on nomme ici "reconstruction interne" au sens large.  Ils ne peuvent pas être appliqués dans chaque cas particulier, mais une fois qu'ils le sont, les résultats obtenus ont une valeur cognitive plus élevée que les conclusions obtenues par les statistiques, la linguistique aréale ou la paléontologie linguistique, qui ont un caractère stochastique. En cas de contradiction, l'inférence tirée de la reconstruction interne sera décisive.

Auteur: Kuryłowicz Jerzy

Info: Chapitre 8. Sur les méthodes de reconstruction interne

[ épistémologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

dernières paroles

On dit que le lieutenant Roger Degueldre (1925 - 1962) du 1er régiment étranger de parachutistes, fut le créateur des commandos Delta de l'OAS. Issu d'une famille ouvrière, il avait fuit l'occupation allemande en 1940 pour se réfugier dans le sud de la France. En 1942, il rentre clandestinement dans la zone occupée et s'engage dans le maquis auprès des partisans communistes. Membre ensuite de la 10e Division d'infanterie motorisée qui participe à la réduction de la poche de Colmar en janvier 1945 il part ensuite à la Légion à la Libération, sous une fausse identité suisse. Identité qui lui sera rendue par décision ministérielle en 1955. Il gagne ses galons en Indochine puis en Algérie. Durant la semaine des barricades à Alger de janvier 1960 il reste, avec son régiment, fidèle au gouvernement français. Il est ensuite soupçonné d'avoir participé au complot avorté de 1960, contre le général de Gaulle peu après sa visite à Alger. Muté au 4e REI il nie les faits. Mais, convaincu de la nécessité de la lutte armée il passe alors dans la clandestinité en décembre 1960. A la mi-mars 1962 un "commando Delta", pénètre au centre social de Château-Royal dans la commune d'El-Biar, près d'Alger. Dans la salle de réunion sont rassemblés six dirigeants des centres sociaux qui sont alignés contre un mur de la cour et abattus à l'arme automatique. Degueldre est arrêté le 7 avril en tant que chef des commandos Delta. Il est traduit en justice et condamné à mort. De Gaulle prend la décision de faire fusiller le lieutenant qui, fidèle à son engagement "La mort plutôt que le déshonneur !", avait justifié son action dans l'OAS par ces mots : "Mon serment, je l'ai fait sur le cercueil du Colonel Jeanpierre. Plutôt mourir, Mon Colonel, que de laisser l'Algérie aux mains du FLN, je vous le jure !" Le 6 juillet, à l'aube, au fort d'Ivry, Degueldre se présente devant le peloton d'exécution en tenue de parachutiste, drapeau tricolore sur la poitrine. Autour de son cou, un foulard de la légion. Dans la poche intérieure de sa vareuse, la photo de son fils bébé qu'il n'a jamais vu. "Dites que je suis mort pour la France !" demande t'il à son défenseur. Puis il refuse qu'on lui bande les yeux et, au poteau crie : "Messieurs, Vive la France !" avant d'entonner la Marseillaise. Les soldats qui doivent l'exécuter, hésitent à tirer. La première salve le blesse seulement, une unique balle l'ayant atteint sur les douze qui furent tirées (au ventre dirent certains... au bras affirmèrent d'autres, on ne sait). L'adjudant chargé de donner le coup de grâce se précipite, l'arme à la main, et réalise que le condamné est toujours en vie. Sa tâche ne consiste plus à achever un quasi-mort avec douze balles dans le corps mais un vivant. Sa main tremble et le revolver se décharge dans le vide. Stupéfaction de l'assistance. Le procureur, mal réveillé, mécontent, fait signe à l'adjudant de se dépêcher. Degueldre est à demi recroquevillé, l'adjudant, peu sûr, pointe une nouvelle fois son arme sur sa tête, ferme les yeux et appuie sur la détente. Rien ne se produit, l'arme est enrayée. Une rumeur monte. Degueldre tourne la tête vers son exécuteur, de l'incompréhension dans le regard. Exaspéré, le procureur ordonne qu'une nouvelle arme soit amenée. Mais personne parmi les militaires présents n'en a avec lui. Il faut courir en chercher une... Pendant ce temps, pétrifié par la scène, glacé d'effroi, celui qui aurait du intervenir, le défenseur du condamné, demeure inerte. Degueldre le regarde. Enfin on remet un pistolet à l'adjudant qui, blanc comme un linge s'exécute. Le coup de feu claque. Stupeur ! Il a été tiré, non pas au-dessus de l'oreille comme l'exige le règlement, mais dans l'omoplate... Enfin une nouvelle détonation retentit. Les thuriféraires de l'officier porteront longtemps l'étendard de leur héros, citant la maxime du Delta : "Je ne vous garde pas rancune, je vous plains."

Auteur: Internet

Info:

[ exécution ] [ nationalisme ] [ patriotisme ]

 

Commentaires: 0

transposition linguistique

La théorie de la traduction est très rarement - comment dire ? - comique. Son mode de fonctionnement est celui de l'élégie et de l'admonestation sévère. Au XXe siècle, ses grandes figures étaient Vladimir Nabokov, en exil de la Russie soviétique, attaquant des libertins comme Robert Lowell pour leurs infidélités au sens littéral ; ou Walter Benjamin, juif dans un Berlin proto-nazi, décrivant la tâche du traducteur comme un idéal impossible d'exégèse. On ne peut jamais, selon l'argument élégiaque, reproduire précisément un vers de poésie dans une autre langue. Poésie ! Tu ne peux même pas traduire "maman"... Et cet argument élégiaque a son mythe élégiaque : la Tour de Babel, où la multiplicité des langues du monde est considérée comme la punition de l'humanité - condamnée aux hurleurs, aux faux amis, aux applications de menu étrangères. Alors que l'état linguistique idéal serait la langue universelle perdue de l'Eden.

La théorie de la traduction est rarement désinvolte ou joyeuse.

Le nouveau livre de David Bellos sur la traduction contourne d'abord cette philosophie. Il décrit les dragons de la Turquie ottomane, l'invention de la traduction simultanée lors du procès de Nuremberg, les dépêches de presse, les bulles d'Astérix, les sous-titres de Bergman, etc.... Il propose une anthropologie des actes de traduction. Mais à travers cette anthropologie, c'est un projet beaucoup plus grand qui émerge. Les anciennes théories étaient élégiaques, majestueuses ; elles étaient très sévères. Bellos est pratique et vif. Il n'est pas éduqué par l'élégie. Et c'est parce qu'il est sur quelque chose de nouveau.

Bellos est professeur de français et de littérature comparée à l'université de Princeton, et également directeur du programme de traduction et de communication interculturelle de cette université (où, je dois le préciser, j'ai déjà pris la parole). Mais pour moi, il est plus intéressant en tant que traducteur de deux romanciers particulièrement grands et problématiques : le Français Georges Perec, dont l'œuvre se caractérise par un souci maniaque de la forme, et l'Albanais Ismail Kadare, dont Bellos traduit l'œuvre non pas à partir de l'original albanais, mais à partir de traductions françaises supervisées par Kadare. La double expérience de Bellos avec ces romanciers est, je pense, à l'origine de son nouveau livre, car ces expériences de traduction prouvent deux choses : Il est toujours possible de trouver des équivalents adéquats, même pour une prose maniaquement formelle, et il est également possible de trouver de tels équivalents dans une langue qui n'est pas l'original de l'œuvre. Alors que selon les tristes théories orthodoxes de la traduction, aucune de ces vérités ne devrait être vraie.

À un moment donné, Bellos cite avec une fierté légitime un petit exemple de sa propre inventivité. Dans le roman de Perec "La vie : Mode d'emploi" de Perec, un personnage se promène dans une arcade parisienne et s'arrête pour regarder les "cartes de visite humoristiques dans la vitrine d'un magasin de farces et attrapes". Dans l'original français de Perec, l'une de ces cartes est : "Adolf Hitler/Fourreur". Un fourreur est un fourreur, mais la blague de Perec est que cela ressemble aussi à la prononciation française de Führer. Donc Bellos, dans sa version anglaise, traduit à juste titre "fourreur" non pas par "furrier", mais comme ceci : "Adolf Hitler/Lieder allemand". Le nouveau jeu de mots multiphonique de Bellos est une parodie, sans aucun doute - et c'est aussi la traduction la plus précise possible.

Les conclusions que ce paradoxe exige sont, disons, déconcertantes pour le lecteur vieux jeu. Nous sommes habitués à penser que chaque personne parle une langue individuelle - sa langue maternelle - et que cette langue maternelle est une entité discrète, avec un vocabulaire manipulé par une grammaire fixe. Mais cette image, selon Bellos, ne correspond pas aux changements quotidiens de nos multiples langues, ni au désordre de notre utilisation des langues. L'ennemi philosophique profond de Bellos est ce qu'il appelle le "nomenclaturisme", "la notion que les mots sont essentiellement des noms" - une notion qui a été amplifiée dans notre ère moderne d'écriture : une conspiration de lexicographes. Cette idée fausse l'agace parce qu'elle est souvent utilisée pour soutenir l'idée que la traduction est impossible, puisque toutes les langues se composent en grande partie de mots qui n'ont pas d'équivalent unique et complet dans d'autres langues. Mais, écrit Bellos, "un terme simple comme 'tête', par exemple, ne peut être considéré comme le 'nom' d'une chose particulière. Il apparaît dans toutes sortes d'expressions". Et si aucun mot en français, par exemple, ne couvre toutes les connotations du mot "tête", sa signification "dans un usage particulier peut facilement être représentée dans une autre langue".

Cette idée fausse a toutefois une très longue histoire. Depuis que saint Jérôme a traduit la Bible en latin, le débat sur la traduction s'est dissous dans l'ineffable - la fameuse idée que chaque langue crée un monde mental essentiellement différent et que, par conséquent, toutes les traductions sont vouées à l'insuffisance philosophique. Dans la nouvelle proposition de Bellos, la traduction "présuppose au contraire... la non-pertinence de l'ineffable dans les actes de communication". En zigzaguant à travers des études de cas de bibles missionnaires ou de machines linguistiques de la guerre froide, Bellos élimine calmement cette vieille idée de l'ineffable, et ses effets malheureux.

On dit souvent, par exemple, qu'une traduction ne peut jamais être un substitut adéquat de l'original. Mais une traduction, écrit Bellos, n'essaie pas d'être identique à l'original, mais d'être comme lui. C'est pourquoi le duo conceptuel habituel de la traduction - la fidélité et le littéral - est trop maladroit. Ces idées dérivent simplement de l'anxiété déplacée qu'une traduction essaie d'être un substitut. Adolf Hitler/Fourreur ! Une traduction en anglais par "furrier" serait littéralement exacte ; ce serait cependant une ressemblance inadéquate.

En littérature, il existe un sous-ensemble connexe de cette anxiété : l'idée que le style - puisqu'il établit une relation si complexe entre la forme et le contenu - rend une œuvre d'art intraduisible. Mais là encore, cette mélancolie est mélodramatique. Il sera toujours possible, dans une traduction, de trouver de nouvelles relations entre le son et le sens qui soient d'un intérêt équivalent, voire phonétiquement identiques. Le style, comme une blague, a juste besoin de la découverte talentueuse d'équivalents. "Trouver une correspondance pour une blague et une correspondance pour un style", écrit Bellos, "sont deux exemples d'une aptitude plus générale que l'on pourrait appeler une aptitude à la correspondance de modèles".

La traduction, propose Bellos dans une déclaration sèchement explosive, plutôt que de fournir un substitut, "fournit pour une certaine communauté une correspondance acceptable pour une énonciation faite dans une langue étrangère." Ce qui rend cette correspondance acceptable variera en fonction de l'idée que se fait cette communauté des aspects d'un énoncé qui doivent être assortis de sa traduction. Après tout, "on ne peut pas s'attendre à ce qu'une traduction ressemble à sa source sur plus de quelques points précis". Une traduction ne peut donc pas être bonne ou mauvaise "à la manière d'une interrogation scolaire ou d'un relevé bancaire". Une traduction s'apparente davantage à un portrait à l'huile". Dans une traduction, comme dans toute forme d'art, la recherche est celle d'un signe équivalent.

Et pour les habitants de Londres ou de Los Angeles, ce démantèlement des mythes autour de la traduction a des implications particulières. Comme le souligne Bellos, ceux qui sont nés anglophones sont aujourd'hui une minorité de locuteurs de l'anglais : la plupart le parlent comme une deuxième langue. L'anglais est la plus grande interlangue du monde.

Je pense donc que deux perspectives peuvent être tirées de ce livre d'une inventivité éblouissante, et elles sont d'une ampleur réjouissante. Le premier concerne tous les anglophones. Google Translate, sans aucun doute, est un appareil à l'avenir prometteur. Il connaît déjà un tel succès parce que, contrairement aux traducteurs automatiques précédents, mais comme d'autres inventions de Google, il s'agit d'une machine à reconnaissance de formes. Il analyse le corpus des traductions existantes et trouve des correspondances statistiques. Je pense que les implications de ce phénomène n'ont pas encore été suffisamment explorées : des journaux mondiaux aux romans mondiaux... . . . Et cela m'a fait imaginer une deuxième perspective - limitée à un plus petit, hyper-sous-ensemble d'anglophones, les romanciers. Je suis un romancier anglophone, après tout. Je me suis dit qu'il n'y avait aucune raison pour que les traductions d'œuvres de fiction ne puissent pas être faites de manière beaucoup plus extensive dans et à partir de langues qui ne sont pas les langues d'origine de l'œuvre. Oui, j'ai commencé à caresser l'idée d'une future histoire du roman qui serait imprudemment internationale. En d'autres termes : il n'y aurait rien de mal, pensais-je, à rendre la traduction plus joyeuse. 


Auteur: Thirlwell Adam

Info: https://www.nytimes.com/2011/10/30. A propos du livre : Le côté joyeux de la traduction, Faber & Faber Ed. Texte traduit à 90% par deepl.com/translator

 

Commentaires: 0

Ajouté à la BD par miguel

surpopulation

Faut-il instaurer un permis de procréer?
Pour sauver la planète et mieux prévenir la maltraitance infantile, l’essayiste Antoine Buéno défend une idée hautement controversée: repenser la liberté d’avoir des enfants.
Face au réchauffement climatique, certains couples décident de ne pas faire d’enfant. Chargé de mission au Sénat, la chambre haute du Parlement français, Antoine Buéno, lui, veut montrer dans son livre "Permis de procréer" (Ed. Albin Michel) qu’un système de contrôle des naissances humaniste est possible.

FEMINA : Vous venez d’avoir un second enfant, conçu avec le sentiment d’un désir que vous qualifiez d’égoïste. Votre livre résulte-il d’un sentiment de culpabilité?
Antoine Buéno : Une culpabilité, non. Je vais faire un parallèle entre procréation et rapport à l’alimentation. On sait que la situation environnementale est catastrophique, par conséquent on s’interroge sur notre manière de consommer. Parmi ceux qui modifient leur rapport à l’alimentation il y a, d’un côté, les végétariens et les véganes, de l’autre, les flexitariens, qui continuent à manger de la viande, mais moins, car ils ont conscience que cela pose un problème.

F : Le sujet est extrêmement sensible. Récemment, une infographie de l’Agence France Presse allant dans ce sens, a suscité un tollé…
AB : Vous faites référence à une infographie tirée d’une étude de 2017 montrant l’effet des gestes individuels que le citoyen peut mettre en œuvre pour réduire significativement son impact climatique. Certains sont assez connus, comme devenir végétarien, ne pas avoir de voiture et ne pas prendre l’avion et… avoir un enfant de moins que prévu, qui a vingt-quatre fois plus d’effet que les autres sur l’environnement. En réalité, ce n’est même pas mesurable, car c’est exponentiel. Votre enfant aura un ou plusieurs enfants, qui auront un ou plusieurs enfants, etc.

F : Le problème est-il vraiment la densité de la population ou le mode de vie?
AB : Les deux. Mais aujourd’hui, les politiques environnementales mettent exclusivement l’accent sur le mode de vie. Or, on ne peut pas le changer du jour au lendemain. Pour mettre en place la transition énergétique, il va falloir brûler énormément d’hydrocarbures, donc polluer. Et cela va prendre des décennies. Ce temps-là, on ne l’a pas. A court terme, le seul levier dont on dispose pour faire face à ce défi de vie ou de mort pour l’humanité, c’est notre démographie.

F : Difficile de bousculer un tel tabou, non?
AB : La procréation est sacro-sainte. La contrôler est intolérable. Nous vivons dans un système sociétal, religieux, économique, intégralement fondé sur une surenchère procréative. Toute la société vous pousse à procréer. Selon moi, il faut que les individus soient aidés par un dispositif collectif de responsabilisation de la procréation, que tous ensemble on change de mentalité et de pratiques.

F : Votre solution est donc une politique nataliste restrictive?
AB : Je n’emploierais pas le terme restrictive. A l’échelle internationale, en ce qui concerne les pays en développement, je mets en avant l’instauration d’un planning familial et de l’éducation des filles. Ce n’est pas restrictif, c’est rencontrer une attente, un désir, un besoin des femmes. Il ne s’agit pas de contraindre, mais de faire évoluer les mentalités.

F : Toutefois, pour des pays comme la Suisse ou la France, vous prônez une incitation étatique à faire baisser la natalité. L’idée de contrôle des naissances est de sinistre mémoire. La politique chinoise de l’enfant unique a conduit à des avortements et même à des stérilisations forcés. Veut-on prendre le risque de retomber dans ce genre de dérives?
AB : Une politique n’est rien en elle-même, tout dépend de la manière dont on la met en œuvre. Une politique démographique peut être abominable, et ça a été fait. C’est contre cela que j’ai écrit chaque ligne de mon livre.

F : Concrètement, vous proposez d’agir à travers l’octroi d’un permis de procréer, un peu comme un permis de conduire…
AB : Attention, car je dévoie le sens du mot permis. Il ne s’agit pas d’un véritable permis. Il n’y a pas d’interdiction de procréer. Le poids du mot permis, en revanche, je le conserve. Même si on ne va pas vous dire: "Monsieur, Madame, vous n’avez pas le droit de faire d’enfant", le fait d’employer ce terme vous fait psychologiquement changer de regard vis-à-vis de la procréation.

F : Vous conditionneriez le fait d’avoir des enfants à une enquête et à une autorisation?
AB : Il n’y a pas d’autorisation à avoir. Vous voulez avoir un enfant, vous faites un enfant, mais vous devez le déclarer et là, vous serez accompagné par des services sociaux, à savoir une assistante sociale, qui viendra voir si vous accueillez votre enfant dans des conditions qui ne présentent pas de danger pour un nouveau-né. On regardera, par ailleurs, si vous avez des besoins spécifiques (allocations familiales, logement, emploi, etc). La société a des moyens qu’elle répartit de manière aveugle. Je propose, à travers la signature d’un contrat de parentalité, de pouvoir cibler les moyens sociaux sur les besoins véritables.

F : Est-ce que ça va réellement freiner les gens d’avoir des enfants?
AB : Ça ne va être qu’un frein marginal à court terme, car il est bien évident qu’un contrat qui prévoit un entretien avec une assistante sociale et un psy dissuadera très peu de gens d’avoir un enfant. En tout cas, je crois que ça ne dissuadera pas les meilleurs parents. A plus long terme, en revanche, ça va changer notre rapport à la procréation. On instille ainsi l’idée que procréer est un partenariat avec la société qui comporte des devoirs et des obligations. Et puis, cela permet d’avoir, dès le début, un regard sur un certain nombre de situations qui pourraient aboutir à de la maltraitance infantile. En résumé, on peut sauver la planète en conciliant les droits de la nature, les droits des enfants et les droits des femmes.

F : Qu’est-ce qui arriverait aux parents qui feraient un enfant sans permis?
AB : Vous avez deux cas de figure. Les gens négligents ou mal informés, qui peuvent se régulariser a posteriori. Mais pour les gens qui refusent, la seule sanction possible est la déchéance de l’autorité parentale. Là, oui, c’est radical.

F : Ce système suppose une ingérence étatique. Est-ce réellement possible sans abus?
AB : Oui, c’est une ingérence, mais on vit dans une société où l’Etat s’ingère partout, tout le temps, dans nos vies quotidiennes. Ce matin, vous êtes sortie de chez vous, vous avez traversé sur les clous, vous avez suivi le Code de la route. On est en permanence en train de dealer avec ses libertés, ses droits individuels et les impératifs posés par la société.

F : Vous ne considérez pas le fait de faire des enfants comme un droit?
AB : Je n’entre pas dans ce débat-là, mais je crois que le mode de procréation, naturel ou artificiel, importera peu dans un monde où on aura instauré un permis de procréer. Car, dans cette situation, ce qui compte ce sont les conditions dans lesquelles on accueille un enfant, quelle que soit la manière dont on l’a fabriqué.

F : Même si c’était efficace, dans les pays occidentaux, comme la Suisse ou la France, on se plaint plutôt d’avoir un taux de fécondité trop bas pour assurer les futures retraites des aînés. Ça va coincer…
AB : Oui, mais encore une fois, je propose un changement de perspective. Si aujourd’hui on vieillit et on décroît, c’est lié à notre explosion démographique passée. Alors, on peut recourir à des moyens qui relèvent du ripolinage ou mettre en place des réformes beaucoup plus substantielles de la société. Face à l’enjeu de savoir comment maintenir la vie sur Terre, celui qui consiste à savoir comment financer les retraites ne fait pas le poids.

En encadré une infographie qui embrasa Internet en son temps, intitulée "Quelques moyens de réduire son empreinte carbone". Publié par l’Agence France Presse dans la foulée du rapport du GIEC du 8 octobre 2018 le tableau montre que’opter pour des ampoules plus écologiques ne permet pas de réduire beaucoup ses émissions. Renoncer à faire un enfant, surtout s’il grandit selon notre mode de consommation actuel, par contre est sans comparaison… Jugée choquante, l’infographie a valu une avalanche de réactions hostiles à l’agence de presse, qui a dû préciser que les informations étaient tirées d’une étude scientifique tout à fait sérieuse, publiée une année plus tôt dans la revue "Environmental Research Letters" en ajoutant explicitement: "L’AFP ne vous invite pas à faire moins d’enfants."

Droit: Restreindre une liberté fondamentale
En Suisse, faire un enfant peut être considéré comme un droit fondamental de l’individu, garanti notamment par l’article 10 de la Constitution fédérale (droit à la vie et à la liberté personnelle), mais aussi par l’article 8 de la Convention européenne des droits de l’homme, la CEDH (droit au respect de la vie privée et familiale).

"Il s’agit d’un droit au sens d’une liberté, c’est-à-dire que l’Etat ne peut pas interdire à quelqu’un d’avoir des enfants", précise Olivier Guillod, directeur de l’institut de droit de la santé de l’Université de Neuchâtel.

Cette liberté peut toutefois être soumise à des restrictions, pour autant que celles-ci soient inscrites dans la loi et admises par la société.

Dans notre pays, une restriction à la liberté de procréer a, par exemple, été discutée dans le cas de personnes handicapées mentales. Une loi fédérale régit les questions éminemment sensibles liées à la stérilisation. Interdite par principe, puisque la règle veut que la stérilisation ne puisse être pratiquée sur un adulte capable de discernement qu’avec son consentement "libre et éclairé", elle est toutefois autorisée, à titre exceptionnel, sous certaines conditions, en ce qui concerne une personne durablement incapable de discernement si elle est considérée dans l’intérêt de cette personne (notamment si la conception d’un enfant ne peut être empêchée par d’autres méthodes de contraception appropriées ou si la séparation d’avec l’enfant après la naissance est inévitable).

Est-il envisageable de restreindre légalement cette liberté pour le bien de la planète? L’article 8 de la CEDH prévoit bien des exceptions, autrement dit la possibilité de légiférer en faveur d’une plus grande ingérence de l’Etat, au nom notamment de "la sécurité nationale", mais aussi du "bien-être économique du pays", de "la protection de la santé ou de la morale", ou encore de celle "des droits et libertés d’autrui".

Pour Olivier Guillod, cependant, on en est très loin: "Si on se base sur l’interprétation qui est donnée actuellement de ces notions, on peut affirmer que la Cour européenne des droits de l’homme ne toucherait pas à un droit aussi fondamental et ne validerait jamais une loi nationale qui imposerait, par exemple, de limiter les familles à un seul enfant. Est-ce que ce sera toujours le cas dans cinquante ans? Je ne peux pas vous le dire…" Internet,

Auteur: Internet

Info: Femina, 1 Avril 2019, Geneviève Comby

[ problématique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

L’Âge de la colère Parfois, après une longue attente, apparaît un livre qui écorche l’esprit du temps, brillant comme un diamant fou. Age of Anger, de Pankaj Mishra, auteur aussi du livre fondateur From the Ruins of Empire, pourrait bien en être le dernier avatar.

Pensez à ce livre comme à une ultime arme – conceptuelle – mortelle, fichée dans les cœurs et les esprits d’une population dévastée d’adolescents cosmopolites déracinés 1 qui s’efforcent de trouver leur véritable vocation, au fur et à mesure que nous traversons péniblement la plus longue période – le Pentagone dirait infinie – de guerres mondiales ; une guerre civile mondiale – que dans mon livre 2007 Globalistan j’ai appelée " Liquid War " : Guerre nomade.

L’auteur, Mishra, est un pur produit, subtil, de East-meets-West 2. Il soutient, pour l’essentiel, qu’il est impossible de comprendre le présent si nous ne reconnaissons pas la prégnance souterraine de la nostalgie du mal du pays, qui contredit l’idéal du libéralisme cosmopolite, incarné dans une " société commerciale universelle d’individus rationnels, conscients de leurs intérêts personnels ", conceptualisée par les Lumières via Montesquieu, Adam Smith, Voltaire et Kant.

Le vainqueur de l’histoire est finalement le récit aseptisé des Lumières bienveillantes. La tradition du rationalisme, de l’humanisme, de l’universalisme et de la démocratie libérale était censée avoir toujours été la norme. Il était " manifestement trop déconcertant ", écrit Mishra, " de reconnaître que la politique totalitaire cristallisait des courants idéologiques – racisme scientifique, rationalisme chauvin, impérialisme, technicisme, politique esthétisée, utopie, ingénierie sociale " qui bouleversaient déjà l’Europe à la fin du XIXe siècle. Ainsi, évoquant " le regard furtif en arrière, au-dessus de l’épaule, vers la terreur primitive ", de T.S. Eliot –, qui a finalement conduit l’Ouest à se dresser contre Le Reste du Monde –, nous devons regarder les précurseurs. Fracasser le Palais de Cristal

Entre en scène Eugène Onéguine de Pouchkine, " le premier d’une grande lignée d’hommes inutiles dans la fiction russe ", avec son chapeau de Bolivar, tenant une statue de Napoléon et un portrait de Byron, allégorie de la Russie essayant de rattraper l’Occident, " une jeunesse spirituellement déchaînée avec une conception quasi-byronienne de la liberté, encore pleine du romantisme allemand ". Les meilleurs critiques des Lumières devaient être Allemands et Russes, derniers venus à la modernité politico-économique. Deux ans avant de publier ses étonnants Carnets du sous-sol, Dostoïevski, dans sa tournée en Europe occidentale, voyait déjà une société dominée par la guerre de tous contre tous, où la plupart étaient condamnés à être perdants.

À Londres, en 1862, à l’Exposition internationale au Palais de Cristal, Dostoïevski eut une illumination : " Vous prenez conscience d’une idée colossale […] qu’il y a ici la victoire et le triomphe. Vous commencez même vaguement à avoir peur de quelque chose. " Tout stupéfié qu’il était, Dostoïevski, plutôt astucieux, a pu observer comment la civilisation matérialiste était tout autant renforcée par son glamour que par sa domination militaire et maritime.

La littérature russe a finalement cristallisé le crime de hasard comme le paradigme de l’individualité savourant son identité et affirmant sa volonté – thème repris plus tard, au milieu du XXe siècle, par l’icône de la Beat Generation William Burroughs, qui prétendait que tirer au hasard était son frisson ultime.

Le chemin avait été tracé pour que le festin des mendiants commence à bombarder le Palais de Cristal – même si, comme Mishra nous le rappelle : " Les intellectuels du Caire, de Calcutta, de Tokyo et de Shanghai lisaient Jeremy Bentham, Adam Smith, Thomas Paine, Herbert Spencer et John Stuart Mill " pour comprendre le secret de la bourgeoisie capitaliste en perpétuelle expansion.

Et ceci après que Rousseau, en 1749, a posé la pierre angulaire de la révolte moderne contre la modernité, aujourd’hui éparpillée dans un désert où les échos se répondent, le Palais de Cristal est de facto implanté dans des ghettos luisants partout dans le monde.

Le Bwana des Lumières : lui mort, Missié

Mishra crédite l’idée de son livre à Nietzsche, en commentant la querelle épique entre l’envieux plébéien Rousseau et Voltaire, l’élitiste serein – qui a salué la Bourse de Londres, quand elle est devenue pleinement opérationnelle, comme l’incarnation laïque de l’harmonie sociale.

Mais ce fut Nietzsche qui finit par devenir l’acteur central, en tant que féroce détracteur du capitalisme libéral et du socialisme, faisant de la promesse séduisante de Zarathoustra un Saint Graal attractif pour les bolcheviks – Lénine le haïssait –, le gauchiste Lu Xun en Chine , les fascistes, anarchistes, féministes et hordes d’esthètes mécontents.

Mishra nous rappelle également comment " les anti-impérialistes asiatiques et les barons voleurs américains empruntent avec empressement " à Herbert Spencer, " le premier penseur véritablement mondial " qui a inventé le mantra de " la survie du plus apte " après avoir lu Darwin.

Nietzsche était le cartographe ultime du ressentiment. Max Weber a prophétiquement décrit le monde moderne comme une " cage de fer " dont seul un leader charismatique peut permettre l’évasion. De son côté, l’icône anarchiste Mikhaïl Bakounine avait déjà, en 1869, conceptualisé le révolutionnaire coupant " tout lien avec l’ordre social et avec tout le monde civilisé […] Il est son ennemi impitoyable et continue de l’habiter avec un seul but : Détruire ".

S’échappant du " cauchemar de l’histoire " du suprême moderniste James Joyce – en réalité la cage de fer de la modernité – une sécession, viscéralement militante, hors " d’une civilisation fondée sur un progrès éternel sous l’administration des libéraux-démocrates " est en train de faire rage, hors de contrôle, bien au-delà de l’Europe.

Des idéologies, qui pourraient être radicalement opposées, ont néanmoins grandi en symbiose avec le tourbillon culturel de la fin du XIXe siècle, depuis le fondamentalisme islamique, le sionisme et le nationalisme hindou jusqu’au bolchevisme, au nazisme, au fascisme et à l’impérialisme réaménagé.

Dans les années trente, le brillant et tragique Walter Benjamin, avait non seulement prophétisé la Seconde Guerre mondiale mais aussi la fin de la partie, alors qu’il était déjà en train d’alerter sur la propre aliénation de l’humanité, enfin capable " d’expérimenter sa propre destruction comme un plaisir esthétique du premier ordre ". La version pop actuelle en live-streaming, style bricolage, comme ISIS, essaie de se présenter comme la négation ultime des piétés de la modernité néolibérale.

L’ère du ressentiment

Tissant les fils savoureux de la politique et de la littérature par pollinisation croisée, Mishra prend son temps pour poser la scène du Grand Débat entre ces masses mondiales en développement, dont les vies sont forgées par " l’histoire largement reconnue de la violence " de l’Occident atlantiste, et des élites modernes nomades (Bauman) tirant profit du rendement de la partie – sélective – du monde qui a fait les percées cruciales depuis les Lumières dans la science, la philosophie, l’art et la littérature.

Cela va bien au-delà d’un simple débat entre l’Orient et l’Occident. Nous ne pouvons pas comprendre la guerre civile mondiale actuelle, ce " mélange intense d’envie, de sentiment d’humiliation et d’impuissance post-moderniste et post-vérité ", si nous n’essayons pas de " démanteler l’architecture conceptuelle et intellectuelle des gagnants de l’histoire en Occident ", issue du triomphalisme des exploits de l’histoire anglo-américaine. Même au summum de la Guerre froide, le théologien américain Reinhold Niebuhr se moquait des " ternes fanatiques de la civilisation occidentale " dans leur foi aveugle selon laquelle toute société est destinée à évoluer exactement comme une poignée de nations occidentales – parfois – l’ont fait.

Et cela – ironie ! – tandis que le culte internationaliste libéral du progrès imitait le rêve marxiste de la révolution internationaliste.

Dans sa préface de 1950 aux Origines du totalitarisme – un méga best-seller ressuscité –, Hannah Arendt nous a essentiellement dit d’oublier la restauration éventuelle du Vieil ordre mondial. Nous avons été condamnés à voir l’histoire se répéter, " l’itinérance à une échelle sans précédent, l’absence de racines à une profondeur sans précédent ".

Pendant ce temps, comme Carl Schorske l’a noté dans son spectaculaire Fin-de-Siècle à Vienne : Politique et Culture, l’érudition américaine a " coupé le lien de conscience " entre le passé et le présent, carrément aseptisé l’Histoire, des siècles de guerre civile, de ravage impérial, de génocide et d’esclavage en Europe et en Amérique ont ainsi tout simplement disparu. Seul le récit TINA (il n’y a pas d’alternative) a été autorisé, voici comment les atlantistes, avec le privilège de la raison et l’autonomie de la personne, ont fait le monde moderne.

Entre maintenant en scène Jalal Al-e-Ahmad, né en 1928 dans le sud pauvre de Téhéran, et l’auteur de Westoxification (1962), un texte majeur de référence sur l’idéologie islamiste, où il écrit que " l’Érostrate de Sartre tire au revolver, avec les yeux bandés, sur les gens dans la rue ; le protagoniste de Nabokov précipite sa voiture dans la foule ; et l’Étranger, Meursault, tue quelqu’un en réaction à un mauvais coup de soleil ". Vous pouvez parler d’un croisement mortel – l’existentialisme rencontre les bidonvilles de Téhéran pour souligner ce que Hanna Arendt a appelé la " solidarité négative ".

Arrive ensuite Abu Musab al-Suri, né en 1958 – un an après Osama ben Laden – dans une famille de la classe moyenne dévote, à Alep. C’est Al-Suri, et non l’Égyptien Al-Zawahiri, qui a conçu une stratégie de djihad mondial sans leader dans The Global Islamic Resistance Call, basée sur des cellules isolées et des opérations individuelles. Al-Suri était le " choc des civilisations " de Samuel Huntington appliqué à al-Qaïda. Mishra le définit comme le " Michel Bakounine du monde musulman ".

Cette " syphilis des passions révolutionnaires

Répondant à cette ridicule affaire néo-hégélienne de " fin de l’histoire ", après la Guerre froide, Allan Bloom a averti que le fascisme pourrait être l’avenir ; et John Gray a télégraphié le retour des " forces primordiales, nationalistes et religieuses, fondamentalistes et bientôt, peut-être, malthusiennes ".

Et cela nous amène à expliquer pourquoi les porteurs exceptionnels de l’humanisme et du rationalisme des Lumières ne peuvent expliquer l’agitation géopolitique actuelle – de ISIS au Brexit et à Trump. Ils ne peuvent jamais arriver à penser quelque chose de plus sophistiqué que l’opposition binaire de libre et non libre ; les mêmes clichés occidentaux du XIXe siècle sur le non-Occident ; et la diabolisation incessante de cet éternel Autre arriéré : l’islam. De là la nouvelle " longue guerre " (terminologie du Pentagone) contre l’islamofascisme. Ils ne pourraient jamais comprendre, comme le souligne Mishra, les implications de cette rencontre d’esprits dans une prison de Supermax au Colorado entre l’auteur de l’attentat d’Oklahoma City, l’Américain pur jus Timothy McVeigh et le cerveau de la première attaque contre le World Trade Center, Ramzi Yousef (musulman normal, père pakistanais, mère palestinienne).

Ils ne peuvent pas comprendre comment les concepteurs d’ISIS arrivent à enrégimenter, en ligne, un adolescent insulté et blessé d’une banlieue parisienne ou d’un bidonville africain et le convertir en narcissique – baudelairien ? – dandy fidèle à une cause émergente, pour laquelle il vaut la peine de se battre. Le parallèle entre le bricolage djihadiste et le terrorisme russe du XIXe siècle – incarnant la " syphilis des passions révolutionnaires ", comme l’a décrit Alexander Herzen – est étrange.

Le principal ennemi du djihad de bricolage n’est pas même chrétien; c’est le shi’ite apostat. Les viols massifs, les meurtres chorégraphiés, la destruction de Palmyre, Dostoïevski avait déjà tout identifié. Comme le dit Mishra, " il est impossible pour les Raskolnikov modernes de se dénier quoi que ce soit, mais il leur est possible de justifier tout ".

Il est impossible de résumer tous les feux croisés rhizomatiques – salut à Deleuze et Guattari – déployés à l’Âge de la colère. Ce qui est clair, c’est que pour comprendre la guerre civile mondiale actuelle, la réinterprétation archéologique du récit hégémonique de l’Occident des 250 dernières années est essentielle. Sinon, nous serons condamnés, comme des gnomes de Sisyphe, à supporter non seulement le cauchemar récurrent de l’Histoire, mais aussi son coup de fouet perpétuel.

Auteur: Escobar Pepe

Info: Février 2017, CounterPunch. Beaucoup d'idées sont tirées de son ouvrage : Globalistan, How the Globalized World is Dissolving into Liquid War, Nimble Books, 2007

[ vingt-et-unième siècle ]

 

Commentaires: 0

littérature

Les 19 lois du bon polar, selon Borges.

Le grand écrivain argentin s'était amusé à codifier la narration policière. En partenariat avec le magazine BoOks.

Dans son article "Lois de la narration policière" (1), de 1933, Jorge Luis Borges propose quelques règles élémentaires, ou "commandements", pour le récit policier classique. Ces conventions, comme il le remarque avec esprit, "ne visent pas à éluder les difficultés, mais plutôt à les imposer". Borges énonce explicitement les six règles suivantes:

1 : Une limite facultative de ses personnages

Les personnages doivent être peu nombreux et bien définis, de façon que lecteur puisse les connaître et les distinguer. "La téméraire infraction à cette loi est responsable de la confusion et de l'ennui fastidieux de tous les films policiers."

2 : Exposition de toutes les données du problème

On doit mettre toutes les cartes sur la table, sans as sortis de la manche à la dernière minute. À partir d'un certain point, le lecteur devra disposer de toutes les pistes nécessaires pour trouver lui-même la solution. "L'infraction répétée de cette deuxième loi est le défaut préféré de Conan Doyle. Il s'agit parfois de quelques imperceptibles particules de cendre, ramassées dans le dos du lecteur par ce privilégié d'Holmes. Parfois l'escamotage est plus grave. Il s'agit du coupable, terriblement démasqué au dernier moment, qui s'avère être un inconnu : une insipide et maladroite interpolation."

3 : Avare économie de moyens

Qu'un personnage se dédouble, on peut l'admettre, dit Borges. Mais que deux individus en contrefassent un troisième pour lui conférer un don d'ubiquité "court le risque incontestable de paraître une surcharge". La solution doit être la plus claire et nette possible, sans lourdeurs techniques, artifices improbables ou déploiements accablants de mouvements et de détails. La solution doit aussi pouvoir se déduire des ressources déjà mises en jeu, comme réorganisation des éléments connus.

4 : Primauté du comment sur le qui

Le véritable mystère d'un bon whodunit(2) n'est pas le nom de celui qui a commis le crime, mais ce que sera le nouvel ordre logique, plus subtil, la vérité souterraine qui éclaire le récit d'un nouveau jour.

5 : Pudeur de la mort

À la différence des thrillers du cinéma contemporain, où l'imagination cherche à concevoir des crimes de plus en plus sanglants et des cadavres de plus en plus choquants, dans le récit policier classique, la mort est comme une ouverture au jeu d'échecs et n'a pas en soi beaucoup d'importance. "Les pompes de la mort n'ont pas leur place dans la narration policière dont les muses glaciales sont l'hygiène, l'imposture et l'ordre", écrit Borges.

On trouve une transgression exemplaire de cette loi dans "le Noël d'Hercule Poirot"(3), d'Agatha Christie. Ce roman, comme on le comprend dans la dédicace, est conçu comme un défi, son beau-frère lui ayant reproché d'éviter le sang dans ses crimes. "Vous y déploriez que mes meurtres deviennent trop épurés - exsangues, pour parler net. Vous y réclamiez un de ces bons vieux meurtres bien saignants. Un meurtre qui, sans l'ombre d'un doute, en soit bien un." Le plus remarquable est peut-être que, dans ce crime esthétiquement opposé aux précédents, Agatha Christie reste elle-même: le cri terrifiant, la scène brutale du meurtre, le sang abondamment répandu sont des clés de l'élucidation finale.

6 : Nécessité et merveilleux dans la solution

"La première implique que le problème soit un problème précis susceptible d'une seule réponse, l'autre requiert que cette réponse puisse émerveiller le lecteur." Cette sensation de merveilleux, précise Borges, ne doit pas faire appel au surnaturel. La solution d'une énigme policière doit être comme la démonstration d'un théorème complexe: difficile à imaginer à partir des prémisses, mais dont la nécessité s'impose par la rigueur d'une explication parfaitement logique. En plus de ces six axiomes déclarés, Borges en postule indirectement certains autres dans son article: Le véritable récit policier repousse - ai-je besoin de le préciser - avec le même dédain les risques physiques et la justice distributive. Il fait abstraction, avec sérénité, des cachots, des escaliers secrets, des remords, de la voltige, des barbes postiches, de l'escrime, des chauves-souris, de Charles Baudelaire et même du hasard. Il découle de ce passage trois règles supplémentaires :

7 : Dédain des risques physiques

Dans ce dédain des risques physiques réside l'une des principales différences avec le roman noir ou le thriller cinématographique. Borges observe que, dans les premiers exemples du genre, "l'histoire se limite à la discussion et à la résolution abstraite d'un crime, parfois à cent lieues de l'événement ou bien éloignée dans le temps". Isidro Parodi, le détective qu'il imagina avec Bioy Casares, résout les énigmes alors qu'il est enfermé dans une prison. Dans les aventures de Sherlock Holmes comme dans celles d'Hercule Poirot, la vie du détective est parfois en danger imminent, mais ces risques sont éphémères et ne constituent jamais la matière narrative principale, sauf peut-être dans leurs dernières enquêtes. C. Auguste Dupin, la vieille Miss Marple, le père Brown et Perry Mason(4) sont tous des exemples de détectives à l'abri des risques physiques.

8 : Renoncement aux considérations ou jugements moraux

Sur la question de la "justice distributive", "la Huella del crimen" de Raúl Waleis, premier roman policier argentin (il date de 1877 et a été récemment réédité - (5)), avait l'intention déclarée de favoriser une nouvelle législation, à travers l'exposé d'une affaire mettant en évidence une faille dans la justice: "Le droit est la source où je puiserai mes arguments. Les mauvaises lois doivent être dénoncées pour les effets que produit leur application. Je crée le drame auquel j'applique la loi en vigueur. Ses conséquences fatales prouveront la nécessité de la réformer. " Les enquêtes de Perry Mason et les récits de Chesterton témoignaient peut-être d'un certain attachement aux canons de la justice et aux considérations morales sur les innocents et les coupables.

9 : Rejet du hasard

À cet égard, citons les intéressantes réflexions de Patricia Highsmith, qui ne craint pas de mettre à l'épreuve la crédulité du lecteur: " J'aime beaucoup qu'il y ait dans l'intrigue des coïncidences et des situations presque (mais pas entièrement) incroyables comme par exemple le plan audacieux qu'un homme propose à un autre qu'il connaît depuis deux heures à peine dans "L'Inconnu du Nord-Express". [...] L'idéal est que les événements prennent une tournure inattendue, en gardant une certaine consonance avec le caractère des personnages. La crédulité du lecteur, son sens de la logique - qui est très élastique -, peut être étirée au maximum, mais il ne faut pas la rompre " ("L'Art du suspense" (6), chap. 5). Le hasard peut survenir dans la narration comme ellipse, tout comme, dans les comédies, on accepte qu'une porte s'ouvre pour laisser sortir un personnage et qu'un autre apparaisse aussitôt. Ou comme le catalyseur d'une circonstance propice à l'accomplissement d'un crime quand le mobile n'est pas très affirmé. C'est ce qui arrive, par exemple, avec l'apparition d'un parent éloigné, dans "Paiement différé" (7) de Cecil Scott Forester. En revanche, le hasard ne devrait pas jouer un rôle décisif dans l'explication finale. À noter que, dans la nouvelle de Borges "la Mort et la Boussole", c'est un accident fortuit, une mort inattendue, qui donne à l'assassin l'idée de la série de meurtres qu'il va commettre. D'autres règles peuvent encore être tirées de l'article de Borges :

10 : Méfiance ou rejet des procédures de l'investigation policière

"Les démarches quotidiennes des investigations policières - empreintes digitales, torture et délation - sembleraient ici des solécismes." L'enquête policière appartient à l'ordre prosaïque des faits et du bon sens. C'est ce qui établit la différence entre le plan de l'enquête officielle de la justice et l'enquête parallèle, de l'ordre de la fiction - à l'écart des critères et des paramètres usuels -, que mène le détective. Dans "la Mort et la Boussole", ironiquement, le policier et le détective ont tous deux raison, mais chacun à sa manière.

11 : L'assassin doit appartenir à la distribution initiale des personnages

"Dans les récits honnêtes, écrit Borges, le criminel est l'une des personnes qui figurent dès le début."

12 : La solution doit éviter le recours au surnaturel, qui ne peut être invoqué que comme une conjecture transitoire à écarter

La réponse doit émerveiller le lecteur "sans faire appel bien sûr au surnaturel, dont l'usage dans ce genre de fiction est un alanguissement et une félonie. Chesterton réalise toujours le tour de force de proposer une explication surnaturelle et de la remplacer ensuite, sans perdre au change, par une autre, toute naturelle."

13 : La solution ne peut comporter des éléments inconnus du lecteur

"Sont également prohibés [...] les élixirs d'origine inconnue." Voici donc les règles énoncées par Borges dans son article. Nous pourrions en rajouter quelques autres :

14 : Omission de la vie privée du détective et de ses aventures sentimentales ou sexuelles

Règle enfreinte dans tous les films policiers, où immanquablement l'enquêteur divorce, mène une existence malheureuse et a une liaison avec l'actrice principale.

15 : Dans le cas d'un double ou triple dénouement, il doit y avoir une progression, chaque fin surpassant la précédente en ingéniosité et en rigueur

Comme dans la règle des trois adjectifs que mentionne Proust à propos des salons de la bonne société française, le troisième est tenu de surpasser les deux premiers.

16 : Le meurtrier ne peut être le majordome (à moins d'être dans un congrès de majordomes)

L'assassin ne peut être un personnage trop secondaire, maintenu en permanence caché, comme une carte que l'on garde pour la fin.

17 : L'assassin ne peut être l'immigré ou le fanatique religieux ou le suspect d'extrémisme politique

Règle toujours soigneusement respectée par Agatha Christie. Les mobiles du meurtre doivent être intimes et le meurtrier doit appartenir au noyau dur de l'histoire. Cette règle est négligée de manière particulièrement décevante dans "Meurtriers sans visage", de Henning Mankell.

18 : L'assassin ne doit pas être le narrateur

Règle admirablement transgressée par Agatha Christie dans "le Meurtre de Roger Ackroyd" et, de manière plus prévisible, par Tchekhov dans "la Confession".

19 : L'assassin ne doit pas être l'enquêteur

Règle non respectée par Agatha Christie dans "le Noël d'Hercule Poirot" et par Juan José Saer dans "l'Enquête". Pourrait-on encore allonger cette liste ? Assurément. Mais cela créerait peut-être une fausse illusion, l'illusion que le genre peut être circonscrit et réduit à un formalisme d'axiomes, à une liste de règles et de procédés. Une illusion symétrique et tout aussi erronée - bien que prisée dans les tables rondes, car elle permet la pose iconoclaste et les métaphores guerrières - veut que le genre doit être dynamité, qu'il faut faire voler en éclats toutes les règles, que les lois sont faites pour être violées. Quiconque s'y est essayé sait en tout cas qu'il est difficile, sinon impossible, de se défaire de toutes à la fois, et qu'il y a dans le genre policier une tension extraordinaire entre ce qui a déjà été dit, entre la rhétorique accumulée dans des milliers de romans, et ce qui reste encore à dire, à la limite des règles. Les lois sont, en ce sens, comme une barrière que l'astuce et la créativité doivent franchir. Dans une des très rares occasions où Borges conçoit un projet de roman (dans l'article "è vero, ma non troppo", paru en 1938 dans la revue "El Hogar") ce n'est pas un hasard s'il choisit, entre tous les genres littéraires, le roman policier. Le sien serait, dit-il, "un peu hétérodoxe". Et il souligne que c'est là un point important, car "le genre policier, comme tous les genres, vit de l'incessante et délicate infraction à ses lois". Oui, la délicate infraction à ses lois.

Auteur: Martinez Guillermo

Info: Texte paru dans le quotidien argentin La Nación, le 15 août 2009, traduit de l'espagnol par François Gaudry

[ recettes ] [ écriture ]

 

Commentaires: 0

homme-machine

La théorie des jeux peut rendre l'IA plus correcte et plus efficace

Les chercheurs s’appuient sur des idées issues de la théorie des jeux pour améliorer les grands modèles de langage et les rendre plus cohérents.

Imaginez que vous ayez un ami qui donne des réponses différentes à la même question, selon la façon dont vous la posez. " Quelle est la capitale du Pérou ? "  btiendrait une réponse : " Lima est-elle la capitale du Pérou ? " en obtiendrait un autre. Vous seriez probablement un peu inquiet au sujet des facultés mentales de votre ami et vous auriez certainement du mal à faire confiance à ses réponses.

C'est exactement ce qui se passe avec de nombreux grands modèles de langage (LLM), les outils d'apprentissage automatique ultra-puissants qui alimentent ChatGPT et d'autres merveilles de l'intelligence artificielle. Une question générative, ouverte, donne une réponse, et une question discriminante, qui implique de devoir choisir entre des options, en donne souvent une différente. "Il y a un décalage lorsque la même question est formulée différemment", a déclaré Athul Paul Jacob , doctorant au Massachusetts Institute of Technology.

Pour rendre les réponses d'un modèle de langage plus cohérentes - et rendre le modèle globalement plus fiable - Jacob et ses collègues ont conçu un jeu dans lequel les deux modes du modèle sont amenés à trouver une réponse sur laquelle ils peuvent s'entendre. Surnommée le jeu du consensus , cette procédure simple oppose un LLM à lui-même, en utilisant les outils de la théorie des jeux pour améliorer la précision et la cohérence interne du modèle.

"Les recherches explorant l'autocohérence au sein de ces modèles ont été très limitées", a déclaré Shayegan Omidshafiei , directeur scientifique de la société de robotique Field AI. "Cet article est l'un des premiers à aborder ce problème, de manière intelligente et systématique, en créant un jeu permettant au modèle de langage de jouer avec lui-même."

"C'est un travail vraiment passionnant", a ajouté Ahmad Beirami, chercheur scientifique chez Google Research. Pendant des décennies, a-t-il déclaré, les modèles linguistiques ont généré des réponses aux invites de la même manière. "Avec leur idée novatrice consistant à intégrer un jeu dans ce processus, les chercheurs du MIT ont introduit un paradigme totalement différent, qui peut potentiellement conduire à une multitude de nouvelles applications."

Mettre le jeu au travail

Ce nouveau travail, qui utilise les jeux pour améliorer l'IA, contraste avec les approches précédentes, qui mesuraient le succès d'un programme d'IA via sa maîtrise des jeux. En 1997, par exemple, l'ordinateur Deep Blue d'IBM a battu le grand maître d'échecs Garry Kasparov – une étape importante pour les machines dites pensantes. Dix-neuf ans plus tard, un programme de Google DeepMind nommé AlphaGo a remporté quatre matchs sur cinq contre l'ancien champion de Go Lee Sedol, révélant ainsi une autre arène dans laquelle les humains ne régnaient plus en maître. Les machines ont également surpassé les humains dans les jeux de dames, le poker à deux joueurs et d’autres jeux à somme nulle, dans lesquels la victoire d’un joueur condamne invariablement l’autre.

Le jeu de la diplomatie, un jeu favori de politiciens comme John F. Kennedy et Henry Kissinger, posait un défi bien plus grand aux chercheurs en IA. Au lieu de seulement deux adversaires, le jeu met en scène sept joueurs dont les motivations peuvent être difficiles à lire. Pour gagner, un joueur doit négocier et conclure des accords de coopération que n'importe qui peut rompre à tout moment. La diplomatie est tellement complexe qu'un groupe de Meta s'est félicité qu'en 2022, son programme d'IA Cicero ait développé un « jeu de niveau humain » sur une période de 40 parties. Bien qu'il n'ait pas vaincu le champion du monde, Cicero s'est suffisamment bien comporté pour se classer dans les 10 % les plus performants face à des participants humains.

Au cours du projet, Jacob — membre de l'équipe Meta — a été frappé par le fait que Cicéron s'appuyait sur un modèle de langage pour générer son dialogue avec les autres joueurs. Il a senti un potentiel inexploité. L'objectif de l'équipe, a-t-il déclaré, " était de créer le meilleur modèle de langage possible pour jouer à ce jeu ". Mais qu'en serait-il s’ils se concentraient plutôt sur la création du meilleur jeu possible pour améliorer les performances des grands modèles de langage ?

Interactions consensuelles

En 2023, Jacob a commencé à approfondir cette question au MIT, en travaillant avec Yikang Shen, Gabriele Farina et son conseiller Jacob Andreas sur ce qui allait devenir le jeu du consensus. L'idée centrale est venue d'imaginer une conversation entre deux personnes comme un jeu coopératif, où le succès se concrétise lorsqu'un auditeur comprend ce que l'orateur essaie de transmettre. En particulier, le jeu de consensus est conçu pour aligner les deux systèmes du modèle linguistique : le générateur, qui gère les questions génératives, et le discriminateur, qui gère les questions discriminatives.

Après quelques mois d’arrêts et de redémarrages, l’équipe a transposé ce principe dans un jeu complet. Tout d'abord, le générateur reçoit une question. Cela peut provenir d’un humain, ou d’une liste préexistante. Par exemple, " Où est né Barack Obama ? " Le générateur obtient ensuite des réponses de candidats, disons Honolulu, Chicago et Nairobi. Encore une fois, ces options peuvent provenir d'un humain, d'une liste ou d'une recherche effectuée par le modèle de langage lui-même.

Mais avant de répondre, il est également indiqué au générateur s'il doit répondre correctement ou incorrectement à la question, en fonction des résultats d'un pile ou face équitable.

Si c'est face, alors la machine tente de répondre correctement. Le générateur envoie la question initiale, accompagnée de la réponse choisie, au discriminateur. Si le discriminateur détermine que le générateur a intentionnellement envoyé la bonne réponse, chacun obtient un point, en guise d'incitation.

Si la pièce tombe sur pile, le générateur envoie ce qu’il pense être la mauvaise réponse. Si le discriminateur décide qu’on lui a délibérément donné la mauvaise réponse, ils marquent à nouveau tous les deux un point. L’idée ici est d’encourager l’accord. " C'est comme apprendre un tour à un chien ", a expliqué Jacob. " On lui donne une friandise lorsqu'ils fait la bonne chose. "

Le générateur et le discriminateur commencent également doté chacun de  quelques " croyances " initiales. Credo sous forme d'une distribution de probabilité liée aux différents choix. Par exemple, le générateur peut croire, sur la base des informations qu'il a glanées sur Internet, qu'il y a 80 % de chances qu'Obama soit né à Honolulu, 10 % de chances qu'il soit né à Chicago, 5 % de chances qu'il soit né à Nairobi et 5 % de chances qu'il soit ailleurs. Le discriminateur peut commencer avec une distribution différente. Si les deux " acteurs " sont toujours récompensés après être parvenus à un accord, ils se voient également retirer des points s'ils s'écartent trop de leurs convictions initiales. Cet arrangement encourage les joueurs à intégrer leur connaissance du monde – toujours tirée d'Internet – dans leurs réponses, ce qui devrait rendre le modèle plus précis. Sans ce prérequis ils pourraient s’entendre sur une réponse totalement fausse comme celle de Delhi, mais accumuler quand même des points.

Pour chaque question, les deux systèmes jouent environ 1 000 parties l'un contre l'autre. Au cours de ces nombreuses itérations, chaque camp apprend les croyances de l'autre et modifie ses stratégies en conséquence.

Finalement, le générateur et le discriminateur commencent à être davantage d’accord à mesure qu’ils s’installent dans ce qu’on appelle l’équilibre de Nash. C’est sans doute le concept central de la théorie des jeux. Cela représente une sorte d’équilibre dans un jeu – le point auquel aucun joueur ne peut améliorer ses résultats personnels en changeant de stratégie. Au jeu du chifoumi, par exemple, les joueurs obtiennent de meilleurs résultats lorsqu'ils choisissent chacune des trois options exactement un tiers du temps, et ils obtiendront invariablement de moins bons résultats avec toute autre tactique.

Dans le jeu du consensus, cela peut se jouer de plusieurs manières. Le discriminateur pourrait observer qu'il marque un point lorsqu'il dit " correct " chaque fois que le générateur envoie le mot " Honolulu " pour le lieu de naissance d'Obama. Le générateur et le discriminateur apprendront, après avoir joué plusieurs fois, qu'ils seront récompensés s'ils continuent de le faire, et qu'aucun d'eux n'aura aucune motivation pour faire autre chose... consensus qui représente l'un des nombreux exemples possibles d'équilibre de Nash pour cette question. Le groupe du MIT s'est également appuyé sur une forme modifiée d'équilibre de Nash qui intègre les croyances antérieures des joueurs, ce qui permet de maintenir leurs réponses ancrées dans la réalité.

L'effet net, ont observé les chercheurs, est de rendre le modèle linguistique jouant ce jeu plus précis et plus susceptible de donner la même réponse, quelle que soit la façon dont la question est posée. Pour tester les effets du jeu du consensus, l'équipe a essayé une série de questions standard sur divers modèles de langage de taille modérée comportant de 7 milliards à 13 milliards de paramètres. Ces modèles ont systématiquement obtenu un pourcentage plus élevé de réponses correctes que les modèles qui n'avaient pas joué, même ceux de taille beaucoup plus importante, comportant jusqu'à 540 milliards de paramètres. La participation au jeu a également amélioré la cohérence interne d'un modèle.

En principe, n'importe quel LLM pourrait gagner à jouer contre lui-même, et 1 000 tours ne prendraient que quelques millisecondes sur un ordinateur portable standard. "Un avantage appréciable de l'approche globale", a déclaré Omidshafiei, "est qu'elle est très légère sur le plan informatique, n'impliquant aucune formation ni modification du modèle de langage de base."

Jouer à des jeux avec le langage

Après ce premier succès, Jacob étudie désormais d’autres moyens d’intégrer la théorie des jeux dans la recherche LLM. Les résultats préliminaires ont montré qu’un LLM déjà solide peut encore s’améliorer en jouant à un jeu différent – ​​provisoirement appelé jeu d’ensemble – avec un nombre arbitraire de modèles plus petits. Le LLM principal aurait au moins un modèle plus petit servant d’allié et au moins un modèle plus petit jouant un rôle antagoniste. Si l'on demande au LLM primaire de nommer le président des États-Unis, il obtient un point chaque fois qu'il choisit la même réponse que son allié, et il obtient également un point lorsqu'il choisit une réponse différente de celle de son adversaire. Ces interactions avec des modèles beaucoup plus petits peuvent non seulement améliorer les performances d'un LLM, suggèrent les tests, mais peuvent le faire sans formation supplémentaire ni modification des paramètres.

Et ce n'est que le début. Étant donné qu'une variété de situations peuvent être considérées comme des jeux, les outils de la théorie des jeux peuvent être mis en œuvre dans divers contextes du monde réel, a déclaré Ian Gemp , chercheur scientifique chez Google DeepMind. Dans un article de février 2024 , lui et ses collègues se sont concentrés sur des scénarios de négociation qui nécessitent des échanges plus élaborés que de simples questions et réponses. "L'objectif principal de ce projet est de rendre les modèles linguistiques plus stratégiques", a-t-il déclaré.

Un exemple dont il a parlé lors d'une conférence universitaire est le processus d'examen des articles en vue de leur acceptation par une revue ou une conférence, en particulier après que la soumission initiale ait reçu une évaluation sévère. Étant donné que les modèles linguistiques attribuent des probabilités à différentes réponses, les chercheurs peuvent construire des arbres de jeu similaires à ceux conçus pour les jeux de poker, qui tracent les choix disponibles et leurs conséquences possibles. "Une fois que vous avez fait cela, vous pouvez commencer à calculer les équilibres de Nash, puis classer un certain nombre de réfutations", a déclaré Gemp. Le modèle vous dit essentiellement : c'est ce que nous pensons que vous devriez répondre.

Grâce aux connaissances de la théorie des jeux, les modèles de langage seront capables de gérer des interactions encore plus sophistiquées, plutôt que de se limiter à des problèmes de type questions-réponses. "Le gros gain à venir réside dans les conversations plus longues", a déclaré Andreas. "La prochaine étape consiste à faire interagir une IA avec une personne, et pas seulement avec un autre modèle de langage."

Jacob considère le travail de DeepMind comme complémentaire aux jeux de consensus et d'ensemble. " À un niveau élevé, ces deux méthodes combinent des modèles de langage et la théorie des jeux ", a-t-il déclaré, même si les objectifs sont quelque peu différents. Alors que le groupe Gemp transforme des situations courantes dans un format de jeu pour aider à la prise de décision stratégique, Jacob a déclaré : " nous utilisons ce que nous savons de la théorie des jeux pour améliorer les modèles de langage dans les tâches générales. "

À l’heure actuelle, ces efforts représentent " deux branches du même arbre ", a déclaré Jacob : deux manières différentes d’améliorer le fonctionnement des modèles de langage. " Je pense personnellement  que dans un an ou deux, ces deux branches convergeront. " 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Steve Nadis, 9 mai 2024

[ maïeutique machine-machine ] [ discussion IA - FLP ]

 
Commentaires: 1
Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

rapetissement

Des mathématiciens identifient le seuil à partir duquel les formes cèdent. Une nouvelle preuve établit la limite à laquelle une forme devient si ondulée qu'elle ne peut être écrasée plus avant.

En ajoutant un nombre infini de torsions aux courbes d'une sphère, il est possible de la réduire en une minuscule boule sans en déformer les distances.

Dans les années 1950, quatre décennies avant qu'il ne remporte le prix Nobel pour ses contributions à la théorie des jeux et que son histoire n'inspire le livre et le film "A Beautiful Mind", le mathématicien John Nash a démontré l'un des résultats les plus remarquables de toute la géométrie. Ce résultat impliquait, entre autres, que l'on pouvait froisser une sphère pour en faire une boule de n'importe quelle taille sans jamais la déformer. Il a rendu cela possible en inventant un nouveau type d'objet géométrique appelé " inclusion ", qui situe une forme à l'intérieur d'un espace plus grand, un peu comme lorsqu'on insère un poster bidimensionnel dans un tube tridimensionnel.

Il existe de nombreuses façons d'encastrer une forme. Certaines préservent la forme naturelle - comme l'enroulement de l'affiche dans un cylindre - tandis que d'autres la plissent ou la découpent pour l'adapter de différentes manières.

De manière inattendue, la technique de Nash consiste à ajouter des torsions à toutes les courbes d'une forme, rendant sa structure élastique et sa surface ébouriffée. Il a prouvé que si l'on ajoutait une infinité de ces torsions, on pouvait réduire la sphère en une minuscule boule. Ce résultat avait étonné les mathématiciens qui pensaient auparavant qu'il fallait des plis nets pour froisser la sphère de cette manière.

Depuis, les mathématiciens ont cherché à comprendre précisément les limites des techniques pionnières de Nash. Il avait montré que l'on peut froisser la sphère en utilisant des torsions, mais n'avait pas démontré exactement la quantité de torsions nécessaire, au minimum, pour obtenir ce résultat. En d'autres termes, après Nash, les mathématiciens ont voulu quantifier le seuil exact entre planéité et torsion, ou plus généralement entre douceur et rugosité, à partir duquel une forme comme la sphère commence à se froisser.

Et dans une paire de parutions récentes ils l'ont fait, au moins pour une sphère située dans un espace de dimension supérieure. Dans un article publié en septembre 2018 et en mars 2020, Camillo De Lellis, de l'Institute for Advanced Study de Princeton, dans le New Jersey, et Dominik Inauen, de l'université de Leipzig, ont identifié un seuil exact pour une forme particulière. Des travaux ultérieurs, réalisés en octobre 2020 par Inauen et Wentao Cao, aujourd'hui de l'Université normale de la capitale à Pékin, ont prouvé que le seuil s'appliquait à toutes les formes d'un certain type général.

Ces deux articles améliorent considérablement la compréhension des mathématiciens des inclusions de Nash. Ils établissent également un lien insolite entre les encastrements et les flux de fluides.

"Nous avons découvert des points de contact étonnants entre les deux problèmes", a déclaré M. De Lellis.

Les rivières tumultueuses peuvent sembler n'avoir qu'un vague rapport avec les formes froissées, mais les mathématiciens ont découvert en 2009 qu'elles pouvaient en fait être étudiées à l'aide des mêmes techniques. Il y a trois ans, des mathématiciens, dont M. De Lellis, ont utilisé les idées de Nash pour comprendre le point auquel un écoulement devient turbulent. Ils ont ré-imaginé un fluide comme étant composé d'écoulements tordus et ont prouvé que si l'on ajoutait juste assez de torsions à ces écoulements, le fluide prenait soudainement une caractéristique clé de la turbulence.

Les nouveaux travaux sur les inclusion(embeddings) s'appuient sur une leçon cruciale tirée de ces travaux antérieurs sur la turbulence, suggérant que les mathématiciens disposent désormais d'un cadre général pour identifier des points de transition nets dans toute une série de contextes mathématiques. 

Maintenir la longueur

Les mathématiciens considèrent aujourd'hui que les formes, comme la sphère, ont leurs propres propriétés géométriques intrinsèques : Une sphère est une sphère quel que soit l'endroit où vous la trouvez.

Mais vous pouvez prendre une forme abstraite et l'intégrer dans un espace géométrique plus grand. Lorsque vous l'intégrez, vous pouvez vouloir préserver toutes ses propriétés. Vous pouvez également exiger que seules certaines propriétés restent constantes, par exemple, que les longueurs des courbes sur sa surface restent identiques. De telles intégrations sont dites "isométriques".

Les incorporations isométriques conservent les longueurs mais peuvent néanmoins modifier une forme de manière significative. Commencez, par exemple, par une feuille de papier millimétré avec sa grille de lignes perpendiculaires. Pliez-la autant de fois que vous le souhaitez. Ce processus peut être considéré comme un encastrement isométrique. La forme obtenue ne ressemblera en rien au plan lisse de départ, mais la longueur des lignes de la grille n'aura pas changé.

(En illustration est montré  un gros plan de la forme sinueuse et ondulante d'un encastrement de Nash., avec ce commentaire - Les encastrements tordus de Nash conservent un degré surprenant de régularité, même s'ils permettent de modifier radicalement une surface.)

Pendant longtemps, les mathématiciens ont pensé que les plis nets étaient le seul moyen d'avoir les deux caractéristiques à la fois : une forme froissée avec des longueurs préservées.

"Si vous permettez aux plis de se produire, alors le problème est beaucoup plus facile", a déclaré Tristan Buckmaster de l'université de Princeton.

Mais en 1954, John Nash a identifié un type remarquablement différent d'incorporation isométrique qui réussit le même tour de force. Il utilisait des torsions hélicoïdales plutôt que des plis et des angles vifs.

Pour avoir une idée de l'idée de Nash, recommencez avec la surface lisse d'une sphère. Cette surface est composée de nombreuses courbes. Prenez chacune d'entre elles et tordez-la pour former une hélice en forme de ressort. Après avoir reformulé toutes les courbes de la sorte, il est possible de comprimer la sphère. Cependant, un tel processus semble violer les règles d'un encastrement isométrique - après tout, un chemin sinueux entre deux points est toujours plus long qu'un chemin droit.

Mais, de façon remarquable, Nash a montré qu'il existe un moyen rigoureux de maintenir les longueurs même lorsque l'on refabrique des courbes à partir de torsades. Tout d'abord, rétrécissez la sphère de manière uniforme, comme un ballon qui se dégonfle. Ensuite, ajoutez des spirales de plus en plus serrées à chaque courbe. En ajoutant un nombre infini de ces torsions, vous pouvez finalement redonner à chaque courbe sa longueur initiale, même si la sphère originale a été froissée.

Les travaux de Nash ont nécessité une exploration plus approfondie. Techniquement, ses résultats impliquent que l'on ne peut froisser une sphère que si elle existe en quatre dimensions spatiales. Mais en 1955, Nicolaas Kuiper a étendu les travaux de Nash pour qu'ils s'appliquent à la sphère standard à trois dimensions. À partir de là, les mathématiciens ont voulu comprendre le point exact auquel, en tordant suffisamment les courbes d'une sphère, on pouvait la faire s'effondrer.

Fluidité de la forme

Les formes pliées et tordues diffèrent les unes des autres sur un point essentiel. Pour comprendre comment, vous devez savoir ce que les mathématiciens veulent dire lorsqu'ils affirment que quelque chose est "lisse".

Un exemple classique de régularité est la forme ascendante et descendante d'une onde sinusoïdale, l'une des courbes les plus courantes en mathématiques. Une façon mathématique d'exprimer cette régularité est de dire que vous pouvez calculer la "dérivée" de l'onde en chaque point. La dérivée mesure la pente de la courbe en un point, c'est-à-dire le degré d'inclinaison ou de déclin de la courbe.

En fait, vous pouvez faire plus que calculer la dérivée d'une onde sinusoïdale. Vous pouvez également calculer la dérivée de la dérivée ou, la dérivée "seconde", qui saisit le taux de changement de la pente. Cette quantité permet de déterminer la courbure de la courbe - si la courbe est convexe ou concave près d'un certain point, et à quel degré.

Et il n'y a aucune raison de s'arrêter là. Vous pouvez également calculer la dérivée de la dérivée de la dérivée (la "troisième" dérivée), et ainsi de suite. Cette tour infinie de dérivées est ce qui rend une onde sinusoïdale parfaitement lisse dans un sens mathématique exact. Mais lorsque vous pliez une onde sinusoïdale, la tour de dérivées s'effondre. Le long d'un pli, la pente de la courbe n'est pas bien définie, ce qui signifie qu'il est impossible de calculer ne serait-ce qu'une dérivée première.

Avant Nash, les mathématiciens pensaient que la perte de la dérivée première était une conséquence nécessaire du froissement de la sphère tout en conservant les longueurs. En d'autres termes, ils pensaient que le froissement et la régularité étaient incompatibles. Mais Nash a démontré le contraire.

En utilisant sa méthode, il est possible de froisser la sphère sans jamais plier aucune courbe. Tout ce dont Nash avait besoin, c'était de torsions lisses. Cependant, l'infinité de petites torsions requises par son encastrement rend la notion de courbure en dérivée seconde insensée, tout comme le pliage détruit la notion de pente en dérivée première. Il n'est jamais clair, où que ce soit sur une des surfaces de Nash, si une courbe est concave ou convexe. Chaque torsion ajoutée rend la forme de plus en plus ondulée et rainurée, et une surface infiniment rainurée devient rugueuse.

"Si vous étiez un skieur sur la surface, alors partout, vous sentiriez des bosses", a déclaré Vincent Borrelli de l'Université de Lyon, qui a travaillé en 2012 avec des collaborateurs pour créer les premières visualisations précises des encastrements de Nash.

Les nouveaux travaux expliquent la mesure exacte dans laquelle une surface peut maintenir des dérivés même si sa structure cède.

Trouver la limite

Les mathématiciens ont une notation précise pour décrire le nombre de dérivées qui peuvent être calculées sur une courbe.

Un encastrement qui plie une forme est appelé C0. Le C représente la continuité et l'exposant zéro signifie que les courbes de la surface encastrée n'ont aucune dérivée, pas même une première. Il existe également des encastrements avec des exposants fractionnaires, comme C0,1/2, qui plissent encore les courbes, mais moins fortement. Puis il y a les incorporations C1 de Nash, qui écrasent les courbes uniquement en appliquant des torsions lisses, conservant ainsi une dérivée première.

(Un graphique à trois panneaux illustre les différents degrés de lissage des lettres O, U et B. DU simple au complexe)

Avant les travaux de Nash, les mathématiciens s'étaient principalement intéressés aux incorporations isométriques d'un certain degré d'uniformité standard, C2 et plus. Ces encastrements C2 pouvaient tordre ou courber des courbes, mais seulement en douceur. En 1916, l'influent mathématicien Hermann Weyl a émis l'hypothèse que l'on ne pouvait pas modifier la forme de la sphère à l'aide de ces courbes douces sans détruire les distances. Dans les années 1940, les mathématiciens ont résolu le problème de Weyl, en prouvant que les encastrements isométriques en C2 ne pouvaient pas froisser la sphère.

Dans les années 1960, Yurii Borisov a découvert qu'un encastrement C1,1/13 pouvait encore froisser la sphère, alors qu'un encastrement C1,2/3 ne le pouvait pas. Ainsi, quelque part entre les enrobages C1 de Nash et les enrobages C2 légèrement courbés, le froissement devient possible. Mais pendant des décennies après les travaux de Borisov, les mathématiciens n'ont pas réussi à trouver une limite exacte, si tant est qu'elle existe.

"Une nouvelle vision fondamentale [était] nécessaire", a déclaré M. Inauen.

Si les mathématiciens n'ont pas pu progresser, ils ont néanmoins trouvé d'autres applications aux idées de Nash. Dans les années 1970, Mikhael Gromov les a reformulées en un outil général appelé "intégration convexe", qui permet aux mathématiciens de construire des solutions à de nombreux problèmes en utilisant des sous-structures sinueuses. Dans un exemple, qui s'est avéré pertinent pour les nouveaux travaux, l'intégration convexe a permis de considérer un fluide en mouvement comme étant composé de nombreux sous-flux tordus.

Des décennies plus tard, en 2016, Gromov a passé en revue les progrès progressifs réalisés sur les encastrements de la sphère et a conjecturé qu'un seuil existait en fait, à C1,1/2. Le problème était qu'à ce seuil, les méthodes existantes s'effondraient.

"Nous étions bloqués", a déclaré Inauen.

Pour progresser, les mathématiciens avaient besoin d'un nouveau moyen de faire la distinction entre des incorporations de douceur différente. De Lellis et Inauen l'ont trouvé en s'inspirant de travaux sur un phénomène totalement différent : la turbulence.

Une énergie qui disparaît

Tous les matériaux qui entrent en contact ont un frottement, et nous pensons que ce frottement est responsable du ralentissement des choses. Mais depuis des années, les physiciens ont observé une propriété remarquable des écoulements turbulents : Ils ralentissent même en l'absence de friction interne, ou viscosité.

En 1949, Lars Onsager a proposé une explication. Il a supposé que la dissipation sans frottement était liée à la rugosité extrême (ou au manque de douceur) d'un écoulement turbulent : Lorsqu'un écoulement devient suffisamment rugueux, il commence à s'épuiser.

En 2018, Philip Isett a prouvé la conjecture d'Onsager, avec la contribution de Buckmaster, De Lellis, László Székelyhidi et Vlad Vicol dans un travail séparé. Ils ont utilisé l'intégration convexe pour construire des écoulements tourbillonnants aussi rugueux que C0, jusqu'à C0,1/3 (donc sensiblement plus rugueux que C1). Ces flux violent une règle formelle appelée conservation de l'énergie cinétique et se ralentissent d'eux-mêmes, du seul fait de leur rugosité.

"L'énergie est envoyée à des échelles infiniment petites, à des échelles de longueur nulle en un temps fini, puis disparaît", a déclaré Buckmaster.

Des travaux antérieurs datant de 1994 avaient établi que les écoulements sans frottement plus lisses que C0,1/3 (avec un exposant plus grand) conservaient effectivement de l'énergie. Ensemble, les deux résultats ont permis de définir un seuil précis entre les écoulements turbulents qui dissipent l'énergie et les écoulements non turbulents qui conservent l'énergie.

Les travaux d'Onsager ont également fourni une sorte de preuve de principe que des seuils nets pouvaient être révélés par l'intégration convexe. La clé semble être de trouver la bonne règle qui tient d'un côté du seuil et échoue de l'autre. De Lellis et Inauen l'ont remarqué.

"Nous avons pensé qu'il existait peut-être une loi supplémentaire, comme la [loi de l'énergie cinétique]", a déclaré Inauen. "Les enchâssements isométriques au-dessus d'un certain seuil la satisfont, et en dessous de ce seuil, ils pourraient la violer".

Après cela, il ne leur restait plus qu'à aller chercher la loi.

Maintenir l'accélération

La règle qu'ils ont fini par étudier a trait à la valeur de l'accélération des courbes sur une surface. Pour la comprendre, imaginez d'abord une personne patinant le long d'une forme sphérique avant qu'elle ne soit encastrée. Elle ressent une accélération (ou une décélération) lorsqu'elle prend des virages et monte ou descend des pentes. Leur trajectoire forme une courbe.

Imaginez maintenant que le patineur court le long de la même forme après avoir été incorporé. Pour des encastrements isométriques suffisamment lisses, qui ne froissent pas la sphère ou ne la déforment pas de quelque manière que ce soit, le patineur devrait ressentir les mêmes forces le long de la courbe encastrée. Après avoir reconnu ce fait, De Lellis et Inauen ont ensuite dû le prouver : les enchâssements plus lisses que C1,1/2 conservent l'accélération.

En 2018, ils ont appliqué cette perspective à une forme particulière appelée la calotte polaire, qui est le sommet coupé de la sphère. Ils ont étudié les enchâssements de la calotte qui maintiennent la base de la calotte fixe en place. Puisque la base de la calotte est fixe, une courbe qui se déplace autour d'elle ne peut changer d'accélération que si la forme de la calotte au-dessus d'elle est modifiée, par exemple en étant déformée vers l'intérieur ou l'extérieur. Ils ont prouvé que les encastrements plus lisses que C1,1/2 - même les encastrements de Nash - ne modifient pas l'accélération et ne déforment donc pas le plafond. 

"Cela donne une très belle image géométrique", a déclaré Inauen.

En revanche, ils ont utilisé l'intégration convexe pour construire des enrobages de la calotte plus rugueux que C1,1/2. Ces encastrements de Nash tordent tellement les courbes qu'ils perdent la notion d'accélération, qui est une quantité dérivée seconde. Mais l'accélération de la courbe autour de la base reste sensible, puisqu'elle est fixée en place. Ils ont montré que les encastrements en dessous du seuil pouvaient modifier l'accélération de cette courbe, ce qui implique qu'ils déforment également le plafond (car si le plafond ne se déforme pas, l'accélération reste constante ; et si l'accélération n'est pas constante, cela signifie que le plafond a dû se déformer).

Deux ans plus tard, Inauen et Cao ont prolongé l'article précédent et prouvé que la valeur de C1,1/2 prédite par Gromov était en fait un seuil qui s'appliquait à toute forme, ou "collecteur", avec une limite fixe. Au-dessus de ce seuil, les formes ne se déforment pas, au-dessous, elles se déforment. "Nous avons généralisé le résultat", a déclaré Cao.

L'une des principales limites de l'article de Cao et Inauen est qu'il nécessite l'intégration d'une forme dans un espace à huit dimensions, au lieu de l'espace à trois dimensions que Gromov avait en tête. Avec des dimensions supplémentaires, les mathématiciens ont gagné plus de place pour ajouter des torsions, ce qui a rendu le problème plus facile.

Bien que les résultats ne répondent pas complètement à la conjecture de Gromov, ils fournissent le meilleur aperçu à ce jour de la relation entre l'aspect lisse et le froissement. "Ils donnent un premier exemple dans lequel nous voyons vraiment cette dichotomie", a déclaré M. De Lellis.

À partir de là, les mathématiciens ont un certain nombre de pistes à suivre. Ils aimeraient notamment résoudre la conjecture en trois dimensions. En même temps, ils aimeraient mieux comprendre les pouvoirs de l'intégration convexe.

Cet automne, l'Institute for Advanced Study accueillera un programme annuel sur le sujet. Il réunira des chercheurs issus d'un large éventail de domaines dans le but de mieux comprendre les idées inventées par Nash. Comme l'a souligné Gromov dans son article de 2016, les formes sinueuses de Nash ne faisaient pas simplement partie de la géométrie. Comme cela est désormais clair, elles ont ouvert la voie à un tout nouveau "pays" des mathématiques, où des seuils aigus apparaissent en de nombreux endroits.

Auteur: Internet

Info: https://www.quantamagazine.org/mathematicians-identify-threshold-at-which-shapes-give-way-20210603/Mordechai Rorvig, rédacteur collaborateur, , 3 juin 2021

[ ratatinement ] [ limite de conservation ] [ apparences ] [ topologie ] [ recherche ] [ densification ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective

La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.

Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.

Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.

Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.

Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".

 L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).

S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.

LE CŒUR DU PROBLÈME

Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.

Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.

Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.

Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.

Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.

Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.

Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.

ASPECTS CRUCIAUX DE LA RÉALITÉ

Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.

La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.

La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.

La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.

Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.

Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.

Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.

Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.

En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.

CHOISISSEZ VOTRE POISON

Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.

Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.

D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.

Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

UNE NON LOCALITÉ PLUS PROFONDE

Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.

 Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.

Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.

En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."

Auteur: Internet

Info: https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023

[ enchevêtrement quantique ] [ régions de l'espace-temps ] [ monde subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel