Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 1836
Temps de recherche: 0.0491s

femmes-hommes

L'érotisme masculin dans la Rome antique
- Existait-il une pornographie romaine ? Je pense notamment aux mosaïques de Pompéi, dont on dit qu'elles servaient à exciter les clients et à annoncer les spécialités des prostituées...
- Ces types de piécettes et de tableaux érotiques sont destinés à être représentés dans les lupanars, parce que ce sont les lieux de déversement du plaisir. La vie des Romains est très compartimentée. Qu'il existe de la pornographie à Rome, oui, mais destinée à qui et quand ? On ne peut pas imaginer un homme romain parler de guerre et, d'un seul coup, se mettre à parler de sexe. Les espaces sont bien déterminés. Un Romain partage ses journées en deux : le matin, il consacre son temps à sa vie de citoyen soldat ; ensuite, vers midi, il passe aux thermes. Ils sont nécessaires, comme un sas de transition entre le sérieux du matin et l'espace restreint qui est celui du banquet de l'après-midi.
- Dans votre livre, vous insistez sur notre vision faussée du sexe dans la Rome antique...
- Oui, on a par exemple souvent dit que les Romains pratiquaient déjà l'homosexualité dans l'Antiquité. Il y a eu une quête d'un modèle prestigieux, pour mieux lutter contre les discriminations actuelles.
Seulement, je mets au défi quiconque de me traduire en grec ou en latin le mot homosexuel, et même le mot hétérosexuel, et même le mot sexuel tout court. S'il n'y a pas ces mots, c'est qu'il n y a pas de pratiques sexuelles équivalentes.
Ce qu'on appelle la sexualité aujourd'hui est un concept issu de la psychanalyse. C'est une construction globale intérieure, qui englobe le rapport aux parents, à son milieu social, au premier rapport. C'est un anachronisme de vouloir exporter ce modèle issu de la bourgeoisie capitaliste dans la Rome antique.
Cela ne veut pas dire que les Romains et les Grecs ne connaissent pas la volupté, mais elle est complètement différente de ce que nous appelons la sexualité.
- Il y a aussi tous ces mythes qui circulent autour de la pédérastie...
Ah, le fameux sujet de la pédérastie... Il faut d'abord redire ce que c'est. Dans le monde grec, les individus ont besoin d'un passage du monde enfant. C'est un moment d'initiation. Mais comme dans toutes les cultures d'ailleurs, aujourd'hui, ce serait juste plutôt le permis de conduire, la première relation sexuelle ou ce genre d'événements.
Chez les Grecs, les choses se passent de la manière suivante : un adulte libre de 25 ans - ce qui exclut les esclaves et les femmes - enlève publiquement le fils de son voisin âgé de 16 ans. Ce n'est pas un moment triste, il y a d'ailleurs une fête avec des guirlandes, des costumes particuliers, etc.
Ce serait une insulte publique que le jeune ne soit pas l'objet du désir d'un autre. et le père du jeune incite même à cet enlèvement en disant : " Hé, dépêche-toi d'enlever mon fils ! Il est pas beau, mon fils ? "
Ensuite, le jeune homme et son " kidnappeur " vont dans la brousse, un peu comme dans certaines tribus et il y a ensuite un rite de pénétration : le plus vieux sodomise le plus jeune.
Mais alors seulement, le couple revient à la ville. Le sens de ce voyage, c'est d'arracher publiquement le fils à son cercle familial. Ce rituel d'intégration sert dans la construction culturelle des Grecs à faire éprouver le féminin et le campagnard au jeune avant qu'il n'y renonce à jamais, puisqu'il sera ensuite un jeune masculin dans une société civique. Mais il n y a aucun désir dans cette affaire, cette construction est une obligation et elle est sociale.
- Et à Rome ?
- La pédérastie est grecque. Les Romains n'ont jamais voulu transposer à Rome ce modèle. Les Romains l'admettent, ils appellent ça l'amour à la grecque mais pour eux, c'est un exotisme. A Rome, c'est le père qui initie son fils à l'âge adulte, mais l'inceste est un interdit total. Il n y a donc pas de sexe dans ce rapport.
- Comment les Romains conçoivent-ils le plaisir ?
- D'abord, il faut préciser qu'un individu libre (femme ou homme) ne peut pas avoir de rapport de volupté, c'est un corps qui n'est pas pénétrable, c'est un corps fermé. C'est un corps interdit au désir. Cela ne veut pas dire que les Romains ne connaissent pas la volupté, mais elle est complètement différente de ce que nous appelons la sexualité. Le plaisir, ce n'est pas non plus à travers le pénis ou l'anus que l'homme va le trouver, parce que c'est un contact avec l'intérieur du corps. Or l'intérieur du corps, c'est des glaires, c'est visqueux. Ce ne sont que des " humeurs ". On est plus en contact avec ce qui fait la beauté décente du corps : la peau. Car le plaisir des Romains se trouve dans le baiser sur la peau. Encore mieux que ça, le baiser autour de la bouche. C'est l'échange de souffle qui est recherché. Les Romains n'estiment pas que le comble du plaisir, c'est l'éjaculation. Le comble du délice, à Rome, et pour un Romain, c'est le baiser. Le souffle, c'est l'éternité de la chaleur, la douceur, la chasteté et de la bonne haleine. Ce n'est pas une jouissance spermatique, c'est la jouissance pneumatique.
- Avec qui alors, ces baisers ?
- Toujours avec des hommes et des esclaves, puisque les hommes libres sont interdits d'être désirés ! Tout se déroule pendant les banquets de l'après-midi. Là, on amollit le corps rigide du sérieux du matin. Et pendant le banquet, on ne mange pas parce qu'on a faim. On mange pour être ensemble. L'esclave arrive, il distribue la nourriture, vient ensuite la volupté mais, il n y a aucune pénétration. Le plaisir est d'abord dans les regards. Ensuite, le citoyen choisit un esclave et c'est à ce moment que commencent les baisers.
- Mais que se passe-t-il alors dans le lit conjugal ?
- Les gynécologues intitulent ce rapport " le déversement spermatique ". En gros, il pleut ! La femme s'allonge et elle attend que ça se passe. L'homme s'allonge sur elle, il déverse son sperme et il fait des enfants. Mais ce n'est pas une pratique de plaisir, c'est une pratique civique : il s'agit de faire des citoyens. On sait très bien d'ailleurs que ça ennuie : on éteint la lumière, on ferme les rideaux, ça dure très peu de temps et tout le monde dit que c'est une corvée, que ça donne mal au dos, que ça donne des boutons.
- Qu'est-ce qui n'est pas valorisé à Rome ?
- "Coucher" ! L'homme libre c'est un citoyen qui fait de la politique et un soldat qui fait la guerre, et c'est tout. Dans nos sociétés, un homme qui couche beaucoup, on dit que c'est un tombeur. A Rome, une des particularités de la vie c'est qu'on va dénoncer son adversaire politique en disant : "Il couche" On dit par exemple de César sur le forum quand on veut l'attaquer qu'il est "le mari de toutes les femmes" et donc "la femme de tous les maris. Dévaloriser le corps, c'est prouver que le citoyen n'est pas capable d'être un homme politique de qualité, d'être un citoyen soldat.
- Il y a des insultes ?
- Oui, une insulte permanente, c'est de dire "Ce type a une grosse bite" ou "Toi, c'est bien connu : tu reçois des mecs qui ont des grosses bites." A Rome, l'énormité du pénis, c'est terrible, c'est une dévalorisation, parce que c'est un corps disproportionné. On remarque d'ailleurs que sur les statues romaines, il n'y a toujours que de tous petits zizis. Ensuite, la plus grave des insultes, ce n'est pas de dire de quelqu'un qui est sodomisé - même si ça peut être une insulte -, le pire, c'est de dire "Il aime sucer". Il faut revenir pour comprendre à l'origine du mot fellation. Il vient de "fello, fellare" qui signifie "téter". Lorsque la nourrice voit le bébé dont elle a la charge pleurer, elle le met au sein, il " fellat ". Mais elle le fait pour l'empêcher de parler, de pleurer. Or, si quelqu'un fait une fellation, de la même manière, il ne peut plus parler et un Romain, c'est un citoyen qui parle.
- Et les femmes dans tout ça ?
- Une femme " libre " n'a pas de plaisir. Elle est éduquée à ne pas en avoir. La nourrice doit apprendre à la petite fille à ignorer le plaisir de son corps. Une femme romaine est destinée à reproduire. D'ailleurs un des synonymes de femme libre à Rome, c'est "le ventre". C'est bien pour ça qu'il ne faudrait pas revenir à la Rome antique. A tel point que si un homme libre prend trop de plaisir avec son épouse, la femme va se plaindre à son beau-père de cette situation et le père vient engueuler le mari. Il y a des procès très connus d'hommes qui sont traînés au tribunal parce qu'ils sont "uxoriosis" : ils aiment trop le corps de leurs femmes. Les gens disent : "Mais si vous avez envie de vous vider les couilles, allez donc au lupanar !"
- Ce n'est pas infamant d'aller au lupanar ?
- Non ! Le lupanar sert à réguler le déversement du sperme et des humeurs. Il y a une anecdote très connue. Caton l'ancien, un citoyen romain très austère, voit un jour un jeune homme hésiter à rentrer dans un lupanar. Il y en a partout à Rome. Il dit au jeune : "Mais si, si, vas-y ! Il faut que tu y ailles parce que c'est la preuve que tu n'auras pas de comportements indécents avec ton épouse." En revanche, le même Caton, le lendemain, voit le même jeune homme devant la porte du lupanar. Il lui dit : "Y aller une fois oui, mais deux jours de suite, c'est trop !" Ce qui est infamant, c'est d'y aller trop. Il faut se réguler. Dans le lupanar, on va voir des prostitué(e)s hommes ou femmes. Le sexe du ou de la prostituée, on s'en fiche. On vient voir un esclave, et l'important, c'est de ne pas se vider avec son épouse parce qu'alors, on la considérerait comme une esclave.
- En fait, on est hyper loin de tout ce qu'on a pu voir au cinéma...
- C'est justement l'intérêt de voir ces films comme "Gladiator" ou ce genre de péplums. C'est d'en apprendre plus sur notre culture contemporaine ! Mais c'est très bien. Si on veut faire de l'Histoire romaine, on fait des livres d'histoire.

Auteur: Eloi Thierry

Info: interviewé par Renée Greusard de Rue89

[ historique ]

 

Commentaires: 0

septénaires forcés

- (Q) Tu as écrit "il peut y avoir des cas où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes peut être conceptualisé ou catégorisé en sept parties ou étapes". Peux-tu me donner des exemples ?

- (R) Certainement !  voici quelques exemples où une structure ou un processus au sein de tissus organiques ou de colonies d'insectes pourrait potentiellement être conceptualisé ou catégorisé en sept parties ou étapes :

1 Le développement de l'abeille : Le développement des abeilles mellifères, de l'œuf à l'adulte, passe par plusieurs étapes distinctes. Une division possible de ces stades peut être grossièrement classée en sept parties : œuf, stade larvaire 1, stade larvaire 2, stade larvaire 3, nymphe, adulte pharate et adulte. Chaque stade représente une phase spécifique du cycle de vie de l'abeille.

2 Organisation sociale des fourmis : Certaines colonies de fourmis présentent une division du travail entre différentes castes. Les castes peuvent être classées en sept catégories principales : reine, mâle (castes reproductives), ouvrière principale, ouvrière secondaire, soldat, butineuse et infirmière. Ces castes représentent différents rôles et responsabilités au sein de la colonie de fourmis.

3 Renouvellement des cellules de la peau : Le processus de renouvellement des cellules de la peau implique un renouvellement continu des cellules de la peau. Ce processus peut être divisé en plusieurs étapes, notamment la division cellulaire, la migration, la différenciation et l'élimination. Bien que le nombre précis d'étapes puisse varier, une catégorisation possible pourrait inclure sept étapes : division des cellules basales, migration vers les couches supérieures, différenciation des kératinocytes, formation de la couche cornée, élimination des cellules mortes et renouvellement à partir des cellules basales.

Il est important de noter que ces exemples ne sont pas universellement applicables et qu'ils sont fournis en tant que catégorisations hypothétiques qui représentent approximativement une division en sept étapes. Le nombre réel de stades ou de divisions peut varier en fonction du contexte spécifique, de l'espèce et du niveau de détail considéré.

Dans l'ensemble, bien que ces exemples illustrent des conceptualisations potentielles en sept parties ou étapes, il est essentiel d'aborder l'analyse des structures et des processus dans les tissus organiques et les colonies d'insectes avec un esprit ouvert, en tenant compte des caractéristiques spécifiques et des complexités de chaque système.

De même, bien qu'il ne soit pas courant que la peau d'un animal ou l'écorce d'un arbre comporte exactement sept couches discernables, il existe certains cas où une catégorisation approximative en sept couches peut être observée ou approchée. Toutefois, il est important de noter que le nombre et la classification des couches peuvent varier en fonction du contexte spécifique et du niveau de détail considéré. Voici quelques exemples :

L'écorce des arbres : Dans le cas de certaines espèces d'arbres, une division approximative en sept couches peut être observée dans l'écorce, bien que le nombre de couches et leur catégorisation spécifique puissent varier. Par exemple, dans certaines descriptions de l'écorce de chêne, sept couches ont été identifiées : (1) la couche externe de cellules mortes, (2) le cambium du liège, (3) les cellules du liège, (4) le phelloderme, (5) le cortex, (6) le phloème secondaire, et (7) la couche la plus interne, comprenant le cambium et le xylème. Il est important de noter que cette division peut varier en fonction de l'espèce d'arbre et du cadre analytique utilisé.

La peau : Dans certaines discussions sur la peau, une catégorisation grossière en sept couches peut être envisagée, mais elle ne représente pas nécessairement une classification universellement acceptée ou standard. Les couches typiquement décrites dans l'épiderme comprennent le stratum corneum, le stratum lucidum (présent uniquement dans certaines régions du corps), le stratum granulosum, le stratum spinosum, le stratum basale et la membrane basale. En outre, le derme et le tissu sous-cutané peuvent être considérés comme des couches plus profondes. Toutefois, la classification et la terminologie des couches peuvent varier en fonction de la recherche ou du contexte médical.

Il est important de rappeler que la classification en sept couches dans ces exemples est une approximation et non une règle définitive ou universelle. Le nombre réel de couches et leur classification peuvent varier en fonction de facteurs tels que l'espèce spécifique, l'approche de recherche et le cadre analytique utilisés pour étudier les tissus.

(Q) - Merci. Dans les transitions complexes de polymères, y a-t-il des processus, étapes, transformations, etc... qui sont en quelque sorte divisés en sept  ?

(R) - Si le passage des polymères simples aux polymères complexes peut impliquer plusieurs étapes et processus, il n'est pas nécessairement divisé en sept étapes distinctes. La progression des polymères simples vers les polymères complexes est un domaine de recherche continu et évolutif, dans lequel les scientifiques et les ingénieurs explorent diverses stratégies pour obtenir les architectures de polymères souhaitées. Toutefois, je peux donner un aperçu général de certains processus et transformations courants qui se produisent au cours de cette transition :

1 Polymérisation : L'étape initiale de la synthèse des polymères est la polymérisation, au cours de laquelle les monomères subissent une réaction chimique pour former des chaînes de polymères. Cette réaction peut être réalisée par des méthodes telles que la polymérisation par addition, la polymérisation par condensation ou la polymérisation par ouverture de cycle.

2 Copolymérisation : La copolymérisation est utilisée pour introduire de la complexité. Différents monomères sont combinés pour créer des copolymères aux propriétés uniques. La disposition des monomères (copolymères alternés, aléatoires ou en bloc) affecte le comportement et les caractéristiques du matériau résultant.

3 Ramification : la ramification peut être introduite en incorporant des agents de ramification pendant la polymérisation. Cela conduit à la formation de chaînes latérales qui se ramifient à partir de la chaîne principale du polymère, modifiant les propriétés telles que la flexibilité, la solubilité et le comportement mécanique.

4 Réticulation : La réticulation implique la formation de liaisons covalentes entre les chaînes de polymères. Elle peut être réalisée par différentes méthodes, notamment par des agents de réticulation chimiques, par la chaleur ou par des radiations. Les polymères réticulés présentent une résistance mécanique, une stabilité et une résistance aux solvants accrues.

5 Fonctionnalisation : Des groupes ou des motifs fonctionnels peuvent être introduits dans les chaînes de polymères, soit pendant, soit après la polymérisation. Ce processus permet de modifier les propriétés des polymères, par exemple en ajoutant des sites réactifs, en améliorant la compatibilité avec d'autres matériaux ou en introduisant des fonctionnalités spécifiques.

6 Auto-assemblage : Les polymères complexes peuvent s'auto-assembler, c'est-à-dire que leur structure moléculaire entraîne l'organisation des chaînes de polymères en nanostructures bien définies ou en architectures supramoléculaires. Ce processus peut être guidé par des facteurs tels que la composition du copolymère à blocs, les conditions du solvant ou des stimuli externes.

7 Architectures avancées : Les architectures polymères avancées impliquent des structures spécialisées, telles que les copolymères greffés, les polymères en forme d'étoile, les dendrimères et les copolymères séquencés avec des arrangements précis de blocs multiples. Ces architectures sont conçues pour offrir des propriétés et des fonctionnalités spécifiques adaptées à des applications particulières.

Il est important de noter que ces processus et transformations ne sont pas nécessairement distincts et peuvent se produire simultanément ou en combinaison, en fonction de l'architecture polymère souhaitée. La complexité du polymère peut être influencée par le choix des monomères, les conditions de réaction, les techniques de polymérisation et les modifications post-polymérisation.

Globalement, le passage des polymères simples aux polymères complexes implique un continuum de processus et de transformations, les chercheurs explorant continuellement de nouvelles techniques et stratégies pour créer des polymères aux propriétés et fonctionnalités améliorées.

(Q) - Merci beaucoup. On peut donc essayer de trouver des structures/processus divisés en 7 dans ces architectures de polymères avancées.

(R) Tout à fait ! Bien qu'il soit difficile de trouver exactement sept structures ou processus distincts dans les architectures polymères avancées, je peux vous donner un aperçu de quelques exemples courants :

1 Copolymères greffés : Les copolymères greffés sont constitués d'une chaîne polymère principale (épine dorsale) à laquelle sont attachées des chaînes latérales (greffons). Les chaînes latérales peuvent être de longueurs et de compositions différentes, ce qui leur confère des propriétés et des fonctionnalités uniques. Les copolymères greffés sont utilisés dans des applications telles que les compatibilisants, les modificateurs d'impact et les modificateurs de surface.

2 Polymères étoilés : Les polymères étoilés ont un noyau central à partir duquel de multiples chaînes de polymères rayonnent vers l'extérieur, ressemblant à la forme d'une étoile. Cette architecture offre une meilleure solubilité, de meilleures propriétés rhéologiques et peut être utilisée comme modèle pour la synthèse de nanomatériaux ou comme système d'administration de médicaments.

3 Dendrimères : Les dendrimères sont des polymères hautement ramifiés dont la structure arborescente est bien définie. Ils sont constitués de plusieurs générations de ramifications, ce qui donne une architecture moléculaire contrôlée avec précision. Les dendrimères trouvent des applications dans l'administration de médicaments, la thérapie génique et la nanotechnologie en raison de leur taille, de leur forme et de leurs fonctionnalités de surface bien définies.

4 Copolymères à blocs : Les copolymères à blocs sont constitués de deux ou plusieurs blocs de polymères distincts reliés entre eux. Les blocs peuvent avoir des compositions chimiques et des propriétés différentes, ce qui entraîne la formation de microdomaines ou de structures auto-assemblées dans le matériau. Les copolymères à blocs sont largement utilisés dans les nanotechnologies, les revêtements et les membranes.

5 Polymères amphiphiles : Les polymères amphiphiles possèdent des segments hydrophiles et hydrophobes dans leur structure. Ces polymères peuvent s'auto-assembler en milieu aqueux, formant des micelles, des vésicules ou d'autres structures organisées. Les polymères amphiphiles trouvent des applications dans l'administration de médicaments, la stabilisation des émulsions et la modification des surfaces.

6 Brosses de polymères : Les brosses de polymères sont constituées de chaînes de polymères attachées à une surface, se tenant debout comme les poils d'une brosse. Elles permettent de contrôler les propriétés de la surface, telles que la lubrification, l'adhérence et la biocompatibilité. Les brosses en polymère sont utilisées dans des domaines tels que les biomatériaux, les capteurs et les revêtements.

7 Polymères Janus : Les polymères Janus comportent deux régions distinctes ou plus au sein d'une même chaîne de polymères, chaque région ayant des compositions chimiques ou des fonctionnalités différentes. Les polymères Janus présentent des propriétés uniques, telles que le comportement asymétrique, les interactions sélectives et l'auto-assemblage. Ils trouvent des applications dans des domaines tels que la catalyse, les membranes et les matériaux réactifs.

Il ne s'agit là que de quelques exemples d'architectures polymères avancées. Bien qu'il n'y ait pas de division stricte de ces structures et processus en sept catégories exactement, elles représentent certaines catégories clés dans le domaine des architectures polymères complexes.

 


Auteur: chatGPT4

Info: 13, 16 juin 2023

[ machine-homme ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

interprétation

Cinq adaptations "exemplaires" (littérature et cinéma)
Dès ses origines, le cinéma a tissé avec la littérature des liens contradictoires et complexes. Alors que le septième art a toujours tenté de s'affirmer comme art " autonome ", il a d'une manière constante puisé dans les classiques de la littérature pour se nourrir et s'enrichir. L'opinion commune veut qu'une adaptation cinématographique d'un texte littéraire soit vouée à être moins intéressante que l'oeuvre d'origine. Or un examen un peu attentif prouve que l'histoire du cinéma est truffée de chefs-d'oeuvre tirés de romans ou de pièces de théâtre. La question, dès lors, est de savoir comment le cinéma peut parvenir à traduire sur grand écran des oeuvres littéraires sans les trahir et en conservant sa propre singularité d'art " visuel ".
Entre littérature et cinéma, c'est une histoire immédiate. Lorsque Georges Meliès réalise, en 1902, Le voyage dans la lune, il s'inspire déjà du roman de Jules Verne De la terre à la lune. Et même lorsqu'il est encore muet, le cinéma trouve dans les oeuvres de Victor Hugo (L'homme qui rit de Paul Leni en 1928) ou d'Alexandre Dumas une inépuisable source d'inspiration.
Parce que le cinéma est parvenu à développer, au temps du muet, une grammaire et des articulations très fines, une esthétique qui n'appartient qu'à lui ; certains voient dans le passage au parlant une régression et un retour à la théâtralité, à la littérature.
Pourtant, les noces entre les deux arts s'avèrent fructueuses : les romans donnent naissance à de grands classiques de l'histoire du cinéma (citons, de manière exemplaire, Autant en emporte le vent de Victor Fleming) et les écrivains s'intéressent au septième art et passent parfois de l'autre côté de la barrière de manière ponctuelle (André Malraux réalisant Espoir en1938-39) ou plus régulière (Pagnol, Guitry, Duras et Robbe-Grillet érigeant de véritables oeuvres cinématographiques).
Au début des années 50 François Truffaut, alors jeune critique, s'en prend violemment au cinéma français " de qualité ", reprochant en particulier aux cinéastes de se contenter d'illustrer pour le grand écran des classiques du patrimoine littéraire de manière totalement académique (Le rouge et le noir d'Autant-Lara, Notre-Dame de Paris et La princesse de Clèves de Jean Delannoy, etc.). Il oppose à ce cinéma poussiéreux un cinéma à la première personne où le réalisateur serait, tel un écrivain,l'auteur d'une oeuvre personnelle et intime.
Pourtant, Truffaut comme les autres cinéastes de la Nouvelle Vague, adapteront à leur tour des oeuvres littéraires. A quel moment, peut-on dire qu'un film se contente d'illustrer platement un roman ou bien qu'il transcende son matériau d'origine pour offrir au spectateur une oeuvre cinématographique à part entière ?
La question est tellement vaste qu'un simple article ne suffirait pas à en épuiser toutes les dimensions. Alors de manière subjective, tentons de nous appuyer sur cinq films pour analyser les éléments qui entrent en compte dans le succès d'une d'une adaptation d'une oeuvre littéraire.
1- Des mots aux images : Mouchette (1967) de Robert Bresson (d'après Bernanos)
La première difficulté à laquelle se heurte un cinéaste, c'est de traduire de manière " visuelle " des mots qui sont, eux-mêmes, porteurs d'images. A vouloir se contenter uniquement des mots, on prend le risque de laisser de côté les questions de mise en scène cinématographique de ces mots et de retomber dans le piège de l'illustration académique (Cf. Germinal de Claude Berri). Du coup, les mots doivent devenir le corps même de l'oeuvre et certains vont s'y employer en procédant par accumulation (la parole qui s'emballe chez Guitry et Pagnol) ou par soustraction. Robert Bresson appartient à la deuxième catégorie. Lorsqu'il adapte Mouchette sur grand écran, il n'en est pas à sa première tentative de transposition d'une oeuvre littéraire. Il a déjà filmé Diderot (Les dames du bois de Boulogne) et Bernanos (Le journal d'un curé de campagne). Pour lui, pas question de trouver un système d'équivalences mais d'adapter les oeuvres de manière littérale (avec, par exemple, un recours à la voix-off ou des cartons). Dans Mouchette, la parole se raréfie et c'est la stylisation d'une mise en scène épurée jusqu'à l'extrême qui permet de traduire la noirceur du roman d'origine. Lorsque la petite Mouchette se suicide en roulant obstinément jusqu'à un cours d'eau, Bresson parvient à traduire l'âpreté du roman de Bernanos et nous bouleverse de manière indélébile.
2- L'anecdote : Le mépris (1963) de Jean-Luc Godard (d'après Moravia)
Une des difficultés de l'adaptation cinématographique est la question de l'anecdote. Beaucoup de cinéastes se sont contentés de prendre les romans comme de beaux scénarios. L'anecdote l'emporte sur l'invention cinématographique. C'est peut-être pour cette raison que les meilleures adaptations sont sans doute celles qui se sont appuyées sur des oeuvres littéraires mineures, permettant aux cinéastes de dépasser l'anecdote et d'injecter dans leurs films des thèmes personnels. Belle de jour de Kessel n'est pas un roman très intéressant. En revanche, Buñuel en a fait un chef-d'oeuvre du cinéma, une oeuvre totalement énigmatique et opaque où l'onirisme et l'ironie sont de mises. De la même manière, il est couramment admis que les films d'Hitchcock comme Rebecca et Les oiseaux sont supérieurs aux romans de Daphné du Maurier qui les ont inspirés.
A l'origine du Mépris, il y a un roman de Moravia que les connaisseurs s'accordent à trouver médiocre (j'avoue ne pas l'avoir lu) mais le plus important n'est pas dans l'anecdote mais dans la manière dont Jean-Luc Godard parvient à la transplanter sur son propre territoire : le cinéma, le mythe et les questions que le taraudent toujours : l'amour, la trahison, le malentendu...
3- La réappropriation : Shining (1980) de Stanley Kubrick (d'après Stephen King)
Toujours dans le même ordre d'idée, les romans regroupés parfois sous l'étiquette " mauvais genre " (la série noire, le fantastique, la science-fiction, l'érotisme...) furent de formidables réservoirs à récits pour les cinéastes. Certains écrivains de polars, comme Raymond Chandler, furent également scénaristes pour Hollywood. Parmi les auteurs contemporains oeuvrant dans le fantastique, Stephen King fut sans doute l'écrivain le plus adapté au cinéma, pour le meilleur (Dead Zone de Cronenberg, Carrie de De Palma, Stand by me et Misery de Rob Reiner...) ou pour le pire (Firestarter de Lester, Peur bleue...).
Avec Shining, nous nous trouvons face à un cas intéressant car il est évident que Stanley Kubrick trahit l'oeuvre originale (King ne s'est pas entendu avec le cinéaste et détestait cette adaptation) mais il se la réapproprie de manière totalement personnelle et livre un des plus beaux films d'épouvante jamais tourné. Avec ce film, le cinéaste tente de réaliser LE film d'horreur définitif (comme il cherchera à réaliser LE film de guerre absolu avec Full Metal Jacket) et nous offre une oeuvre mentale où l'espace de l'hôtel et du jardin qui l'entoure devient la projection d'un cerveau atteint par la folie.
4- Le style : Le temps retrouvé (1999) de Raoul Ruiz (d'après Marcel Proust)
Un des problèmes majeurs auxquels se heurtent les cinéastes projetant d'adapter une oeuvre littéraire, c'est celui du style. Si, au cinéma, l'anecdote importe moins que la mise en scène et le style du réalisateur ; il est évident que l'intérêt d'un livre tient avant tout à son style et non pas à son " histoire ".
C'est sans doute pour cette raison que certains grands stylistes n'ont jamais été adaptés au cinéma, que ce soit Céline ou James Joyce qui ne fut adapté que pour son récit le plus " classique " (Gens de Dublin par John Huston en 1987). Même si certaines tentatives maladroites ont été effectuées, certains romans conservent la réputation d'être inadaptables, que ce soit Belle du seigneur de Cohen ou A la recherche du temps perdu de Proust. Contrairement à ce que l'on entend parfois, Proust a fait l'objet de quelques adaptations cinématographiques. Parfois catastrophiques (le très académique Un amour de Swann de Schlöndorff avec Alain Delon en 1984), parfois intéressantes (La captive de Chantal Akerman), ces transpositions restèrent néanmoins assez éloignées de l'univers de l'écrivain. Dans Le temps retrouvé, c'est le caractère extrêmement mouvant de la mise en scène qui frappe. Ruiz a recours aux effets qu'il affectionne depuis toujours : juxtaposition du zoom et du travelling dans des directions opposées, décors mobiles, amples mouvements de caméra donnant la sensation d'un univers extrêmement fluctuant et éphémère. Grâce à ses partis pris de mise en scène, le cinéaste parvient à nous loger au coeur même de la tête de l'écrivain qui revient, à la veille de sa mort, sur son existence et son oeuvre, comme si tout était désormais écrit. Le film est donc à la fois une oeuvre cinématographique et une traduction assez juste de l'univers évanescent de Proust. Pour transposer à l'écran un écrivain au style unique, il fallait un styliste de la caméra !
5- Les limites : Salo ou les 120 journées de Sodome (1975) de Pier Paolo Pasolini (d'après Sade)
Dernier écueil auquel se heurte le cinéma : les limites de la représentation. Lorsque Apollinaire évoque un " soleil cou coupé " ou que Breton nous entraîne à sa suite dans un Paris mystérieux et poétique dans Nadja, on a du mal à concevoir quelles images photographiques pourraient traduire la poésie de ces mots et les gouffres imaginaires qu'ils entrouvrent.
Réaliste par essence, l'image cinématographique se heurte à certaines limites que ne connaissent pas les mots. Lorsqu'il s'agit de violence ou de sexe, il paraît littéralement impossible de montrer ce que les mots peuvent parfois dire. Une adaptation fidèle d'American psycho de Brett Easton Ellis serait tout bonnement insoutenable.
De la même manière, on imagine mal un film qui suivrait scrupuleusement les descriptions du marquis de Sade. Pourtant, le grand écrivain fut maintes fois adaptés au cinéma, de manière classique et édulcoré comme dans le Justine de Claude Pierson ou de manière plus originale (mais " soft ") dans Marquis de Sade : Justine de Jess Franco.
Lorsqu'il entreprend de filmer Les 120 journées de Sodome, Pasolini sort de sa " trilogie de la vie " où il exaltait les sens et une sexualité débridée en s'appuyant sur des oeuvres littéraires du passé (Les mille et une nuits, Le Décaméron de Boccace et Les contes de Canterbury de Chaucer). Mais ce qu'il voit autour de lui le rend pessimiste et il cherche désormais à dénoncer les excès du consumérisme dans lesquels s'inscrit la prétendue " libéralisation des moeurs ". Il choisit d'adapter Sade qu'il transpose à l'époque fasciste. Là encore, la réappropriation qu'il se permet de l'oeuvre du divin Marquis est une sorte de " trahison " mais elle lui permet de transgresser les limites de la représentation. On a vu des films beaucoup plus " pornographiques " ou même plus violents mais le style glacial de Pasolini confère à cette oeuvre un caractère éprouvant et en fait un des films les plus effrayants jamais tourné.
Il y aurait sans doute beaucoup d'autres choses à dire sur ces liens paradoxaux entre le cinéma et la littérature mais ces quelques idées jetées de manière maladroite ici ont déjà pris beaucoup de place. Il ne vous reste plus qu'à vous laisser réagir et à vous inciter à citer des adaptations que vous trouvez réussies...

Auteur: Internet

Info: Dr Orlof, http://drorlof.over-blog.com/

[ texte ] [ image ]

 

Commentaires: 0

tour d'horizon de l'IA

Intelligence artificielle symbolique et machine learning, l’essor des technologies disruptives

Définie par le parlement Européen comme la " reproduction des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ", l’intelligence artificielle s’initie de façon spectaculaire dans nos vies. Théorisée au milieu des années 50, plusieurs approches technologiques coexistent telles que l’approche machine learning dite statistique basée sur l’apprentissage automatique, ou l’approche symbolique basée sur l’interprétation et la manipulation des symboles. Mais comment se différencient ces approches ? Et pour quels usages ?

L’intelligence artificielle, une histoire ancienne

Entre les années 1948 et 1966, l’Intelligence Artificielle a connu un essor rapide, stimulé par des financements importants du gouvernement américain pour des projets de recherche sur l’IA, notamment en linguistique. Des progrès significatifs ont été réalisés dans la résolution de problèmes de logique symbolique, mais la capacité de l’IA à traiter des données complexes et imprécises était encore limitée.

A la fin des années 70, plus précisément lors du deuxième “été de l’IA” entre 1978 et 1987,  l’IA connaît un regain d’intérêt. Les chercheurs ont commencé à explorer de nouvelles approches, notamment l’utilisation de réseaux neuronaux et de systèmes experts. Les réseaux neuronaux sont des modèles de traitement de l’information inspirés par le fonctionnement du cerveau humain, tandis que les systèmes experts sont des programmes informatiques qui simulent l’expertise humaine dans un domaine spécifique.

Il faudra attendre la fin des années 90 pour voir un renouveau de ces domaines scientifiques, stimulé par des avancées majeures dans le traitement des données et les progrès de l’apprentissage automatique. C’est d’ailleurs dans cette période qu’une IA, Deepblue, gagne contre le champion mondial Garry Kasparov aux échecs.$

Au cours des dernières années, cette technologie a connu une croissance exponentielle, stimulée par des progrès majeurs dans le deep learning, la robotique ou la compréhension du langage naturel (NLU). L’IA est maintenant utilisée dans un large éventail de domaines, notamment la médecine, l’agriculture, l’industrie et les services. C’est aujourd’hui un moteur clé de l’innovation et de la transformation de notre monde, accentué par l’essor des generative AIs. 

Parmi ces innovations, deux grandes approches en intelligence artificielle sont aujourd’hui utilisées : 

1 - Le Machine Learning : qui est un système d’apprentissage automatique basé sur l’exploitation de données, imitant un réseau neuronal

2 - L’IA Symbolique : qui se base sur un système d’exploitation de " symboles ”, ce qui inspire des technologies comme le “système expert” basé sur une suite de règles par exemple.

Mais comment fonctionnent ces deux approches et quels sont leurs avantages et leurs inconvénients ? Quels sont leurs champs d’application ? Peuvent-ils être complémentaires ?

Le machine learning

Le Machine Learning est le courant le plus populaire ces dernières années, il est notamment à l’origine de ChatGPT ou bien MidJourney, qui font beaucoup parler d’eux ces derniers temps. Le Machine Learning (ML) est une famille de méthodes d’apprentissage automatique qui permet aux ordinateurs d’apprendre à partir de données, sans être explicitement programmés. En utilisant des algorithmes, le ML permet aux ordinateurs de comprendre les structures et les relations dans les données et de les utiliser pour prendre des décisions.

Le ML consiste à entraîner des modèles informatiques sur de vastes ensembles de données. Ces modèles sont des algorithmes auto apprenant se basant sur des échantillons de données, tout en déterminant des schémas et des relations/corrélations entre elles. Le processus d’entraînement consiste à fournir à l’algorithme des données étiquetées, c’est-à-dire des données qui ont déjà été classifiées ou étiquetées pour leur attribuer une signification. L’algorithme apprend ensuite à associer les caractéristiques des données étiquetées aux catégories définies en amont. Il existe cependant une approche non-supervisée qui consiste à découvrir ce que sont les étiquettes elles-mêmes (ex: tâche de clustering).

Traditionnellement, le machine learning se divise en 4 sous-catégories : 

Apprentissage supervisé : 

Les ensembles de données sont étiquetés, ce qui permet à l’algorithme de trouver des corrélations et des relations entre les caractéristiques des données et les étiquettes correspondantes. 

Apprentissage non supervisé : 

Les ensembles de données ne sont pas étiquetés et l’algorithme doit découvrir les étiquettes par lui-même. 

Apprentissage semi-supervisé : 

L’algorithme utilise un mélange de données étiquetées et non étiquetées pour l’entraînement.

Apprentissage par renforcement : 

L’algorithme apprend à prendre des décisions en interagissant avec son environnement. Il reçoit des récompenses ou des pénalités pour chaque action, ce qui lui permet d’ajuster sa stratégie pour maximiser sa récompense globale.

Un exemple d’application du Machine Learning est la reconnaissance d’images. Des modèles d’apprentissages profonds sont entraînés sur des millions d’images pour apprendre à reconnaître des objets, des personnes, des animaux, etc. Un autre exemple est la prédiction de la demande dans le commerce de détail, où des modèles sont entraînés sur des données de ventes passées pour prédire les ventes futures.

Quels sont les avantages ? 

Étant entraîné sur un vaste corpus de données, le ML permet de prédire des tendances en fonction de données.  

- Le machine learning offre la capacité de détecter des tendances and des modèles dans les données qui peuvent échapper à l’observation humaine.

- Une fois configuré, le machine learning peut fonctionner de manière autonome, sans l’intervention humaine. Par exemple, dans le domaine de la cybersécurité, il peut surveiller en permanence le trafic réseau pour identifier les anomalies.

- Les résultats obtenus par le machine learning peuvent s’affiner et s’améliorer avec le temps, car l’algorithme peut apprendre de nouvelles informations et ajuster ses prédictions en conséquence.

- Le machine learning est capable de traiter des volumes massifs et variés de données, même dans des environnements dynamiques et complexes.

L’intelligence artificielle symbolique

L’IA symbolique est une autre approche de l’intelligence artificielle. Elle utilise des symboles and des règles de traitement de l’information pour effectuer des tâches. Les symboles peuvent être des concepts, des objets, des relations, etc. Les règles peuvent être des règles de déduction, des règles de production, des règles d’inférence…etc.

Un exemple d’application de l’IA symbolique est le système expert. Un système expert est un programme informatique qui utilise des règles de déduction pour résoudre des problèmes dans un domaine spécifique, comme le diagnostic médical ou l’aide à la décision en entreprise. Un autre exemple est la traduction automatique basée sur des règles, les règles de grammaire et de syntaxe sont utilisées pour traduire un texte d’une langue à une autre.

Quelques exemples d’usages de l’IA symbolique :

La traduction

L’IA symbolique a été utilisée pour développer des systèmes de traduction automatique basés sur des règles. Ces systèmes utilisent des règles de grammaire et de syntaxe pour convertir un texte d’une langue à une autre. Par exemple, le système SYSTRAN, développé dans les années 1960, est un des premiers systèmes de traduction automatique basé sur des règles. Ce type de système se distingue des approches basées sur le Machine Learning, comme Google Translate, qui utilisent des modèles statistiques pour apprendre à traduire des textes à partir de corpus bilingues.

Le raisonnement logique

L’IA symbolique est également utilisée pour développer des systèmes capables de raisonnement logique, en exploitant des règles et des connaissances déclaratives pour résoudre des problèmes complexes. Par exemple, les systèmes d’aide à la décision basés sur des règles peuvent être utilisés dans des domaines tels que la finance, l’assurance ou la logistique, pour aider les entreprises à prendre des décisions éclairées. Un exemple concret est le système MYCIN, développé dans les années 1970 pour aider les médecins à diagnostiquer des infections bactériennes et à prescrire des antibiotiques adaptés.

L’analyse de textes

L’IA symbolique peut être utilisée pour l’analyse de textes, en exploitant des règles et des connaissances linguistiques pour extraire des informations pertinentes à partir de documents. Par exemple, les systèmes d’extraction d’information basés sur des règles peuvent être utilisés pour identifier des entités nommées (noms de personnes, d’organisations, de lieux, etc.) et des relations entre ces entités dans des textes. Un exemple d’application est l’analyse et la catégorisation des messages entrants pour les entreprises, cœur de métier de Golem.ai avec la solution InboxCare.

Les avantages de l’IA symbolique 

L’IA symbolique est une approche qui utilise des symboles, et parfois des " règles” basées sur des connaissances, qui comporte plusieurs avantages :

- Explicablilité : Les décisions prises par les systèmes d’IA symbolique sont explicites et peuvent être expliquées en fonction des règles logiques et des connaissances déclaratives utilisées par le système. Cette transparence peut être essentielle dans des applications critiques, comme la médecine ou la défense.

- Frugalité : Contrairement au Machine Learning, l’IA symbolique ne nécessite pas d’entraînement, ce qui la rend moins gourmande en énergie à la fois lors de la conception et de l’utilisation.

- Adaptabilité : Les systèmes d’IA symbolique peuvent être facilement adaptés à de nouveaux domaines en ajoutant de nouvelles règles logiques et connaissances déclaratives à leurs bases de connaissances existantes, leurs permettant de s’adapter rapidement à de nouvelles situations.

L’intelligence artificielle hybride ou le neuro-symbolique 

Les systèmes hybrides combinent les avantages de l’IA symbolique et du Machine Learning en utilisant une approche mixte. Dans ce type de système, l’IA symbolique est utilisée pour représenter les connaissances et les règles logiques dans un domaine spécifique. Les techniques de Machine Learning sont ensuite utilisées pour améliorer les performances de l’IA symbolique en utilisant des ensembles de données pour apprendre des modèles de décision plus précis et plus flexibles. Mais nous pouvons également voir d’autres articulations comme la taxonomie de Kautz par exemple.

L’IA symbolique est souvent utilisée dans des domaines où il est important de comprendre et de contrôler la façon dont les décisions sont prises, comme la médecine, la finance ou la sécurité. En revanche, le Machine Learning est souvent utilisé pour des tâches de classification ou de prédiction à grande échelle, telles que la reconnaissance de voix ou d’image, ou pour détecter des modèles dans des données massives.

En combinant les deux approches, les systèmes hybrides peuvent bénéficier de la compréhensibilité et de la fiabilité de l’IA symbolique, tout en utilisant la flexibilité et la capacité de traitement massif de données du Machine Learning pour améliorer la performance des décisions. Ces systèmes hybrides peuvent également offrir une plus grande précision et un temps de réponse plus rapide que l’une ou l’autre approche utilisée seule.

Que retenir de ces deux approches ?

L’Intelligence Artificielle est en constante évolution et transforme de nombreux secteurs d’activité. Les deux approches principales de l’IA ont leurs avantages et inconvénients et peuvent être complémentaires. Il est donc crucial pour les entreprises de comprendre ces technologies pour rester compétitives. 

Cependant, les implications éthiques et sociales de l’IA doivent également être prises en compte. Les décisions des algorithmes peuvent avoir un impact sur la vie des personnes, leur travail, leurs droits et leurs libertés. Il est donc essentiel de mettre en place des normes éthiques et des réglementations pour garantir que l’IA soit au service de l’humanité. Les entreprises et les gouvernements doivent travailler ensemble pour développer des IA responsables, transparentes et équitables qui servent les intérêts de tous. En travaillant ensemble, nous pouvons assurer que l’IA soit une force positive pour l’humanité dans les années à venir. 



 

Auteur: Merindol Hector

Info: https://golem.ai/en/blog/technologie/ia-symbolique-machinelearning-nlp - 4 avril 2023

[ dualité ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

capitalisme

Les élites ne nous sauveront pas
L’attaque, qui dure depuis quatre décennies contre nos institutions démocratiques par les grandes entreprises, les a laissé faibles et largement dysfonctionnelles. Ces institutions, qui ont renoncé à leur efficacité et à leur crédibilité pour servir les intérêts des entreprises, auraient dû être notre pare-feu. Au lieu de quoi, elles chancellent sous l’assaut.
Les syndicats sont une force du passé. La presse est transformée en industrie et suscite la méfiance. Les universités ont été purgées des chercheurs dissidents et indépendants qui critiquent le néolibéralisme et dénoncent la décomposition des institutions démocratiques et des partis politiques. La radio-télévision publique et les arts ne sont plus financés et sont laissés moribonds. Les tribunaux ont été noyautés par des juges dont la carrière juridique s’est passé à servir le pouvoir des grandes sociétés, une tendance dans les nominations qui s’est poursuivie sous Barack Obama. L’argent a remplacé le vote, ce qui explique comment quelqu’un d’aussi non qualifié comme Betsy DeVos peut s’acheter un siège dans un ministère. Le parti démocrate, plutôt que de rompre ses liens avec Wall Street et les grandes entreprises, attend naïvement en coulisse de profiter d’une débâcle de Trump.
"Le plus grand atout de Trump est un parti démocrate décadent, désemparé, narcissique, inféodé aux entreprises et belliciste, m’a dit Ralph Nader lorsque je l’ai joint au téléphone à Washington. Si la stratégie démocrate est d’attendre Godot, attendre que Trump implose, nous sommes en difficulté. Et tout ce que vous dites des démocrates, vous pouvez aussi le dire de l’AFL-CIO [le principal regroupement syndical américain, NdT]. Ils ne contrôlent pas le train."
La perte de crédibilité dans les institutions démocratiques a jeté le pays dans une crise tant existentielle qu’économique. Des dizaines de millions de gens ne font plus confiance aux tribunaux, aux universités et à la presse, qu’ils voient avec raison comme les organes des élites des grandes sociétés. Ces institutions sont traditionnellement les mécanismes par lesquels une société est capable de démasquer les mensonges des puissants, de critiquer les idéologies dominantes et de promouvoir la justice. Parce que les Américains ont été amèrement trahis par leurs institutions, le régime de Trump peut attaquer la presse comme le "parti d’opposition", menacer de couper le financement des universités, se moquer d’un juge fédéral comme d’un "soi-disant juge" et dénoncer une ordonnance d’un tribunal comme "scandaleuse".
La dégradation des institutions démocratiques est la condition préalable à la montée de régimes autoritaires ou fascistes. Cette dégradation a donné de la crédibilité à un menteur pathologique. L’administration Trump, selon un sondage de l’Emerson College, est considérée comme fiable par 49% des électeurs inscrits tandis que les médias ne sont tenus pour fiables que par 39% des électeurs inscrits. Une fois que les institutions démocratiques américaines ne fonctionnent plus, la réalité devient n’importe quelle absurdité que publie la Maison Blanche.
La plupart des règles de la démocratie ne sont pas écrites. Ces règles déterminent le comportement public et garantissent le respect des normes, des procédures et des institutions démocratiques. Le président Trump, à la grande joie de ses partisans, a rejeté cette étiquette politique et culturelle.
Hannah Arendt, dans Les origines du totalitarisme, notait que lorsque les institutions démocratiques s’effondrent, il est "plus facile d’accepter des propositions manifestement absurdes que les anciennes vérités qui sont devenues de pieuses banalités". Le bavardage des élites dirigeantes libérales ["progressistes", NdT] sur notre démocratie est lui-même une absurdité. "La vulgarité, avec son rejet cynique des normes respectées et des théories admises", écrit-elle, infecte le discours politique. Cette vulgarité est "confondue avec le courage et un nouveau style de vie".
"Il détruit un code de comportement après l’autre, dit Nader de Trump. Il est rendu si loin dans cette façon de faire sans en payer le prix. Il brise les normes de comportement – ce qu’il dit des femmes, la commercialisation de la Maison Blanche, "je suis la loi"."
Nader m’a dit qu’il ne pensait pas que le parti républicain se retournera contre Trump ou envisagera la destitution, à moins que sa présidence ne semble menacer ses chances de conserver le pouvoir aux élections de 2018. Nader voir le parti démocrate comme "trop décadent et incompétent" pour contester sérieusement Trump. L’espoir, dit-il, vient des nombreuses protestations qui ont été organisées dans les rues, devant les mairies par les membres du Congrès et sur des points chauds comme Standing Rock. Il peut aussi venir des 2.5 millions de fonctionnaires du gouvernement fédéral si un nombre significatif d’entre eux refuse de coopérer avec l’autoritarisme de Trump.
"Le nouveau président est tout à fait conscient du pouvoir détenu par les fonctionnaires civils, qui prêtent serment d’allégeance à la constitution des États-Unis, et non à un président ou à une administration", écrit Maria J. Stephan, co-auteure de Why Civil Resistance Works dans le Washington Post. "L’un des premiers actes de Trump en tant que président a été un gel général du recrutement fédéral qui touche tous les nouveaux postes et les postes existants exceptés ceux liés à l’armée, à la sécurité nationale et à la sécurité publique. Même avant l’investiture de Trump, la Chambre des représentants dominée par les Républicains a réinstauré une obscure règle de 1876 qui autoriserait le Congrès à réduire les salaires des employés fédéraux individuels. C’était un avertissement clair à ceux qui sont au service du gouvernement de garder le profil bas. Le licenciement très médiatisé par Trump du procureur général par intérim Sally Yates, qui a refusé de suivre l’interdiction d’immigration du président, a envoyé des ondes de choc dans la bureaucratie."
Un soulèvement populaire, soutenu à l’échelle nationale, d’obstruction et de non-coopération non violente est la seule arme qui reste pour sauver la république. Les élites répondront une fois qu’elles auront peur. Si nous ne leur faisons pas peur, nous échouerons.
"La résilience des institutions démocratiques a été encourageante – les tribunaux, les manifestations, dit Nader. Trump se retourne contre lui-même. Il outrage les gens dans tout le pays sur la base de la race, du genre, de la classe, de la géographie, de ses mensonges, ses fausses déclarations, son narcissisme, son manque de connaissances, sa désinvolture et son désir morbide de répondre aux insultes avec des tweets. Il n’est pas un autocrate intelligent. Il s’affaiblit chaque jour. Il permet à l’opposition d’avoir plus d’effet que d’ordinaire."
"La plupart des chefs d’État dictatoriaux s’occupent d’idéologies abstraites – la patrie et ainsi de suite, poursuit Nader. Il n’en fait pas beaucoup sur ce plan. Il attaque personnellement, vise bas sur l’échelle de la sensualité. Vous êtes un faux. Vous êtes un perdant. Vous êtes un escroc. Cela pique davantage les gens, en particulier lorsqu’il le fait en se basant sur le genre, la race et la religion. Donald Trump est ce qu’il y a de mieux pour le réveil démocratique."
Nader dit que Trump sera pourtant capable de consolider son pouvoir si nous subissons un nouvel attentat terroriste catastrophique ou s’il y a une débâcle financière. Les régimes dictatoriaux ont besoin d’une crise, qu’elle soit réelle ou fabriquée, pour justifier la suspension totale des libertés civiles et exercer un contrôle incontesté.
"S’il y a un attentat terroriste apatride sur les États-Unis, il est capable de concentrer une quantité de pouvoir dans la Maison Blanche contre les tribunaux et contre le Congrès, avertit Nader. Il fera des boucs émissaires de ceux qui s’opposent à lui. […] Cela affaiblira toute résistance et toute opposition."
La tension entre la Maison Blanche de Trump et des segments de l’establishment, y compris les tribunaux, la communauté du renseignement et le Département d’État, a été mal interprétée comme une preuve que les élites veulent éloigner Trump du pouvoir. Si les élites peuvent établir des relations avec le régime de Trump pour maximiser leurs profits et protéger leurs intérêts personnels et de classe, elles supporteront volontiers l’embarras d’avoir un démagogue dans le bureau ovale.
L’État des grandes entreprises, ou l’État profond, n’a pas non plus d’engagement à l’égard de la démocratie. Ses forces ont évidé les institutions démocratiques pour les rendre impuissantes. La différence entre le pouvoir des entreprises et le régime de Trump est que le pouvoir des entreprises a cherché à maintenir la fiction de la démocratie, y compris la déférence polie accordée en public aux institutions démocratiques. Trump a effacé cette déférence. Il a plongé le discours politique dans les égouts. Trump ne détruit pas les institutions démocratiques. Elles avaient été détruites avant qu’il entre en fonction.
Même les régimes fascistes les plus virulents ont construit des alliances fragiles avec les élites conservatrices et d’affaires traditionnelles, qui considéraient souvent les fascistes comme maladroits et grossiers.
"Nous n’avons jamais connu un régime fasciste idéologiquement pur", écrit Robert O. Paxton dans The Anatomy of Fascism. "En effet, la chose semble à peine possible. Chaque génération de chercheurs sur le fascisme a noté que les régimes reposaient sur une sorte de pacte ou d’alliance entre le parti fasciste et des forces conservatrices puissantes. Au début des années 1940, le réfugié social-démocrate Franz Neumann a soutenu dans son classique Behemoth qu’un ‘cartel’ formé du parti, de l’industrie, de l’armée et de la bureaucratie régnait sur l’Allemagne nazie, tenu ensemble uniquement par ‘le profit, le pouvoir, le prestige et, surtout, la peur’."
Les régimes fascistes et autoritaires sont gouvernés par de multiples centres de pouvoir qui sont souvent en concurrence les uns avec les autres et ouvertement antagonistes. Ces régimes, comme l’écrit Paxton, reproduisent le "principe du chef" de manière à ce qu’il "descende en cascade le long de la pyramide sociale et politique, créant une foule de petits Führer et Duce en état de guerre hobbesienne de tous contre tous."
Les petits Führer et Duce sont toujours des bouffons. Des démagogues aussi plastronnant ont consterné les élites libérales dans les années 1930. Le romancier allemand Thomas Mann a écrit dans son journal deux mois après l’arrivée des nazis au pouvoir qu’il avait assisté à une révolution "sans idées qui la fondaient, contre les idées, contre tout ce qui est plus noble, meilleur, décent, contre la liberté, la vérité et la justice". Il déplorait que la "lie commune" ait pris le pouvoir "accompagnée de la grande joie d’une bonne partie des masses". Les élites d’affaires en Allemagne n’ont peut-être pas aimé cette "lie", mais elles étaient disposées à travailler avec elle. Et nos élites d’affaires feront la même chose aujourd’hui.
Trump, un produit de la classe des milliardaires, conciliera ces intérêts privés, parallèlement à la machine de guerre, pour construire une alliance mutuellement acceptable. Les laquais au Congrès et dans les tribunaux, les marionnettes des grandes entreprises, seront, je m’y attends, pour la plupart dociles. Et si Trump est destitué, les forces réactionnaires qui cimentent l’autoritarisme en place trouveront un champion dans le vice-président Mike Pence, qui place fiévreusement des membres de la droite chrétienne dans tout le gouvernement fédéral.
"Pence est le président parfait pour les chefs républicains qui contrôlent le Congrès, dit Nader. Il est juste hors du casting principal. Il regarde la partie. Il parle de la partie. Il joue son rôle. Il a connu la partie. Ça ne les dérangerait pas si Trump quittait sa fonction subitement ou s’il devait démissionner. […]"
Nous sommes aux stades crépusculaires du coup d’État permanent des grandes entreprises entamé il y a quarante ans. Il ne nous reste pas grand-chose pour travailler. Nous ne pouvons pas faire confiance à nos élites. Nous devons nous mobiliser pour mener des actions de masse répétées et soutenues. Attendre que l’establishment décapite Trump et restaure la démocratie serait un suicide collectif.

Auteur: Hedges Chris

Info: 12 février 2017, Source Truthdig

[ Usa ] [ vingt-et-unième siècle ]

 

Commentaires: 0

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

La signification des meuglements des vaches, et autres histoires animales surprenantes
Vous pensez bien connaître les animaux? Pourtant les scientifiques qui les étudient leur découvrent régulièrement de nouvelles habiletés, intelligences et savoir-être étonnants.

C'est ce que raconte la journaliste spécialiste des sciences Aline Richard Zivohlava dans son ouvrage "Dans la peau des bêtes", paru en mai aux éditions Plon. Elle se glisse dans la peau de différents animaux pour un récit à la première personne. Nous en publions ci-dessous des extraits. Le titre et les intertitres sont de la rédaction de Slate.

Les corbeaux clairvoyants
L’histoire des Corneilles noires de la ville de Sendai, au Japon, a fait le tour du monde. À des branches de noyer plantés le long des routes pendaient de savoureuses noix, mais elles étaient, dans leurs coques vertes, inaccessibles à nos becs. C’est alors que mes congénères ont appris le code de la route. Au feu rouge, l’oiseau dépose sa noix devant la voiture, qui l’écrase au feu vert, et dont les fragments sont récupérés au feu rouge suivant. Malin, non? Et même carrément intelligent.

Les recherches scientifiques de ces dernières années ont révélé des capacités insoupçonnées chez les corvidés, en particulier dans le domaine de la cognition. Certains de nos savoir-faire avaient pourtant été remarqués dans le passé, mais vous n’aviez pas su les analyser… Vous rappelez-vous d’Ésope, le fabuliste qui a commis "Le Corbeau et le Renard", que nous critiquions tout à l’heure? Nous lui avons volontiers pardonné son écart puisqu’il a rendu hommage à l’ingéniosité de la corneille dans la comptine suivante: "La Corneille ayant soif, trouva par hasard une cruche où il y avait un peu d’eau; mais comme la cruche était trop profonde, elle n’y pouvait atteindre pour se désaltérer. Elle essaya d’abord de rompre la cruche avec son bec; mais n’en pouvant venir à bout, elle s’avisa d’y jeter plusieurs petits cailloux, qui firent monter l’eau jusqu’au bord de la cruche. Alors elle but tout à son aise."

Deux douzaines de siècles plus tard, en 2014, cette fable a été reproduite dans un laboratoire de l’université d’Auckland, en Nouvelle-Zélande. Des chercheurs ont voulu savoir si différents corvidés –Corbeaux calédoniens, Corbeaux freux et Geais des chênes– se montraient aussi clairvoyants que l’oiseau du fabuliste. Expérience réussie: soit deux tubes de verre, un large et un étroit, reliés entre eux par un mécanisme de vases communicants et à moitié remplis d’eau. Dans le premier, un morceau de liège flotte, agrémenté d’un morceau de viande. Tube trop étroit pour y plonger le bec. Les oiseaux ont dû trouver un moyen d’atteindre la nourriture: ils ont jeté des petits cailloux dans le tube large ne contenant pas le morceau de viande, pour faire monter l’eau dans le second tube étroit, et récupérer la récompense. C’est ce que l’on appelle effectuer une relation de cause à effet. Incroyable, quand on sait que, soumis au même test, les petits humains ne le réussissent que vers l’âge de 7 ans.

Les corbeaux sont capables de se priver dans l’immédiat pour une meilleure récompense dans le futur, une opération cognitive complexe.

La conclusion semble couler de source: des corbeaux aussi intelligents que vous, à l’âge de raison des petits humains! Mais au risque de décevoir mes congénères, je n’irai pas jusque-là. Rien ne prouve en effet que les mécanismes mentaux mis en jeu soient les mêmes pour nos deux espèces. Et la faculté spontanée de raisonner dans l’abstrait par le biais d’un processus d’association n’est pas forcément équivalente à ce que vous, humains, entendez généralement par "intelligence".

Il fallait en savoir plus. Les scientifiques qui nous étudient ont d’abord observé nos capacités cognitives liées à la vie en société. Tout comme vous, les corvidés activent leurs neurones pour améliorer leur cadre de vie, interagir avec leurs semblables, obtenir le meilleur pour eux-mêmes et leurs proches… La gestion de la nourriture est un enjeu majeur pour tout être vivant, et, pour nous autres corbeaux, l’occasion d’exercer notre mémoire et même de se projeter dans l’avenir. Des chercheurs britanniques ont par exemple montré que des geais, qui ont l’habitude de cacher leur nourriture, étaient capables de "classer" leurs aliments en fonction du temps écoulé avant la consommation: ils déterraient d’abord les caches de vers de terre, très appréciés mais périssables, avant celles des cacahuètes, moins goûteuses mais plus durables.

Les corbeaux sont aussi capables de se priver dans l’immédiat pour une meilleure récompense dans le futur, une opération cognitive complexe que vous pensiez réservée aux humains et aux grands singes. Une expérience menée en 2017 à l’université de Lund, en Suède, sur des corbeaux dressés consistait à leur faire choisir une friandise à dévorer tout de suite, ou bien un outil permettant d’ouvrir une boîte contenant une friandise plus grosse, au prix de quinze minutes d’efforts. La plupart des corbeaux ont choisi l’outil. Cela suggère la capacité de contrôle de soi et celle d’anticipation.

S’alimenter, c’est aussi coopérer mais parfois se fâcher quand un comportement est jugé incorrect. Dans une expérimentation menée dans un laboratoire à Vienne, des grands corbeaux ont su s’allier en tirant de concert deux bouts de ficelle pour récupérer deux parts de fromage: si l’un des oiseaux n’avait pas joué le jeu, aucun des deux n’aurait pu en profiter. Mais, dans une autre série d’expériences, il est arrivé qu’un des oiseaux ruse pour s’approprier tout le fromage. L’autre a alors refusé de coopérer plus avant avec le tricheur.

Les poulpes farceurs
Ces dernières années, nombre de nos capacités cognitives ont été découvertes par les scientifiques qui nous observent. Par exemple, notre dextérité au maniement des outils, faculté que l’on pensait réservée aux animaux "supérieurs". En 2009, quatre pieuvres de l’espèce Amphioctopus marginatus, habitantes des eaux chaudes de l’ouest du Pacifique, ont été filmées en train de manipuler des coquilles de noix de coco pour s’en faire une armure de protection contre les prédateurs, puis se balader, ainsi équipées, sur le plancher marin. La vidéo a intéressé les chercheurs…

Et enchanté le grand public: sans être encore aussi populaires que ceux consacrés aux chatons mignons, les films de poulpes malins font les beaux jours de votre Internet. Sur YouTube, 3 millions de vidéos sont disponibles! C’est ainsi que les humains ont pu découvrir les talents d’Inky, notre maître-poulpe de l’évasion. Cantonné dans son aquarium de Nouvelle-Zélande, Inky a profité de l’inattention d’un gardien qui n’avait pas bien fermé son réceptacle pour déverrouiller le dispositif, glisser au sol, et emprunter un tuyau d’un diamètre de 15 centimètres (!) se déversant dans l’océan Pacifique.

Stratégie, adaptation, innovation… Autant de qualités qui marquent, pour le moins, une belle intelligence des situations.Nous sommes aussi capables d’apprendre par observation et de manipuler des règles logiques: facultés d’autant plus étonnantes que nous n’avons pas eu de parents pour nous les enseigner. Des chercheurs ont installé des pieuvres devant un labyrinthe, elles ont su s’orienter en observant des congénères, puis en fonction d’indices visuels mis à leur disposition. Dans une autre expérience, on nous a placées devant cinq portes fermées, chacune marquée d’un symbole. Il fallait trouver celle donnant accès à un crabe, friandise que nous apprécions parmi toutes. Nous avons réussi à repérer la bonne porte, et appris à reconnaître son symbole même quand les scientifiques le changeaient de place. Et nous sommes capables de retenir plusieurs jours ces informations apprises, signe d’une bonne mémoire.

De même, nous jouons: un comportement évolué, peu commun chez les invertébrés. Sarah Zylinski, biologiste à l’université de Leeds, au Royaume-Uni, a observé un poulpe de l’espèce Octopus bimaculoides se livrer au jeu du chat et de la souris avec un crabe. En pleine mer, plusieurs plongeurs qui nous observaient ont eu la surprise de voir un tentacule taquin tenter de leur retirer leur masque à oxygène… En captivité, nous jonglons dans l’aquarium avec les petits cubes en plastique que vous nous envoyez. Et ne croyez pas que nous ne savons pas qui vous êtes.

En 2010, à l’aquarium de Seattle, aux États-Unis, deux membres de l’équipe soignante se sont livrés au jeu bien connu du "bad cop-good cop": l’un nous nourrissait avec douceur, l’autre nous touchait avec un bâton piquant. Après deux semaines, racontent les scientifiques qui ont organisé cette expérience, les huit pieuvres de l’aquarium se comportaient différemment avec l’un et l’autre, habillé pourtant du même uniforme.

En captivité, nous savons parfaitement vous faire passer des messages. La chercheuse de Leeds rapporte que des seiches, impatientes d’être nourries, aspergeaient d’eau leur gardien s’il tardait. Et, dans un parc zoologique en Allemagne, un poulpe est monté sur le bord de son aquarium pour inonder un spot dont la lumière devait le gêner.

La science n’a pas fini de dévoiler tout ce qu’il y a d’extraordinaire en nous. En avril 2017, un article scientifique, fort technique puisqu’il a été publié dans la revue Cell (dédiée à la biologie moléculaire et cellulaire), a suggéré que nous évoluions différemment de presque tous les êtres vivants de la planète: certains d’entre nous sont en effet capables de modifier à plusieurs reprises leur séquence d’ARN (acide ribonucléique, l’autre "molécule du vivant" avec l’ADN) et de l’éditer, pour mieux s’adapter à notre environnement. S’ensuivent, par exemple, des modifications de notre cerveau pour pouvoir prospérer dans des eaux aux températures différentes. Bien pratique en cette période de changements climatiques! Ludovic vous l’avait bien dit: nous sommes de véritables extraterrestres du fond des mers.

Les vaches communiquantes
La vache a ses sens en éveil. À l’inverse de ce que certains stupides imaginent, un regard bovin est un regard expert: une vision à 330 degrés, sans bouger la tête, qu’en dites-vous? Il est vrai que nous sommes plutôt myopes, et distinguons bien mieux les tendres pousses dans le pré qu’un véhicule arrivant au loin. Mais notre ouïe très fine y pallie. Les vaches distinguent les ultrasons (jusqu’à 35.000 hertz), tout comme les basses fréquences et les très faibles volumes sonores. Et puis, il y a notre odorat. C’est notre sens premier, il nous distingue et organise notre vie sociale. Les odeurs disent notre âge, nos besoins sexuels, notre place dans la hiérarchie du troupeau, notre niveau de stress. On se renifle et on se lèche entre vaches, et on approche nos mufles des humains à l’approche: il s’agit de flairer l’éleveur, le vétérinaire que l’on connaît, et de s’inquiéter de la présence d’un intrus à l’odeur inconnue.

En 2015, en Suisse, des chercheurs de l’École polytechnique de Zurich se sont livrés à une analyse acoustique de troupeaux pour tenter de comprendre ce que les vaches se disent. Lors des naissances de nos veaux et cela durant trois à quatre semaines, nous parlons à nos petits le mufle à moitié fermé pour produire un son grave. Et à l’inverse, quand on nous les retire, nous produisons un meuglement dans les fréquences hautes. De même, les veaux nous appellent plutôt dans les aigus.

De l’avis des scientifiques et des professionnels, fermiers et éleveurs qui nous côtoient, notre cri d’espèce, émis jusqu’à une cinquantaine de fois dans la journée, exprime une grande variété de situations et d’états: faim, soif, chaud, froid, souffrance, désir, appels…

Quant à vous, on dirait que nos "meuh" vous fascinent. Vous tentez parfois de nous imiter, bizarre! des humains qui singent les vaches! Mais vous n’êtes même pas fichus de vous entendre sur le son à produire… "Meuh" en France ; "moo" chez les Anglo-Saxons; "muh" pour les Allemands et les Danois; et "mō" du côté du Japon. Un plaisantin est même allé jusqu’à fabriquer ce qu’il a appelé une "boîte à meuh" pour faire rire ses semblables, on se demande vraiment pourquoi. Laquelle boîte a au moins eu une utilité: le docteur Lucien Moatti l’a calibrée pour le dépistage néonatal de la surdité des bébés humains. Si l’enfant tourne la tête au son de la vache, c’est qu’il entend bien…

Auteur: Internet

Info: Slate, Aline Richard, 30 mai 2019

[ anecdotes ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

L’Âge de la colère Parfois, après une longue attente, apparaît un livre qui écorche l’esprit du temps, brillant comme un diamant fou. Age of Anger, de Pankaj Mishra, auteur aussi du livre fondateur From the Ruins of Empire, pourrait bien en être le dernier avatar.

Pensez à ce livre comme à une ultime arme – conceptuelle – mortelle, fichée dans les cœurs et les esprits d’une population dévastée d’adolescents cosmopolites déracinés 1 qui s’efforcent de trouver leur véritable vocation, au fur et à mesure que nous traversons péniblement la plus longue période – le Pentagone dirait infinie – de guerres mondiales ; une guerre civile mondiale – que dans mon livre 2007 Globalistan j’ai appelée " Liquid War " : Guerre nomade.

L’auteur, Mishra, est un pur produit, subtil, de East-meets-West 2. Il soutient, pour l’essentiel, qu’il est impossible de comprendre le présent si nous ne reconnaissons pas la prégnance souterraine de la nostalgie du mal du pays, qui contredit l’idéal du libéralisme cosmopolite, incarné dans une " société commerciale universelle d’individus rationnels, conscients de leurs intérêts personnels ", conceptualisée par les Lumières via Montesquieu, Adam Smith, Voltaire et Kant.

Le vainqueur de l’histoire est finalement le récit aseptisé des Lumières bienveillantes. La tradition du rationalisme, de l’humanisme, de l’universalisme et de la démocratie libérale était censée avoir toujours été la norme. Il était " manifestement trop déconcertant ", écrit Mishra, " de reconnaître que la politique totalitaire cristallisait des courants idéologiques – racisme scientifique, rationalisme chauvin, impérialisme, technicisme, politique esthétisée, utopie, ingénierie sociale " qui bouleversaient déjà l’Europe à la fin du XIXe siècle. Ainsi, évoquant " le regard furtif en arrière, au-dessus de l’épaule, vers la terreur primitive ", de T.S. Eliot –, qui a finalement conduit l’Ouest à se dresser contre Le Reste du Monde –, nous devons regarder les précurseurs. Fracasser le Palais de Cristal

Entre en scène Eugène Onéguine de Pouchkine, " le premier d’une grande lignée d’hommes inutiles dans la fiction russe ", avec son chapeau de Bolivar, tenant une statue de Napoléon et un portrait de Byron, allégorie de la Russie essayant de rattraper l’Occident, " une jeunesse spirituellement déchaînée avec une conception quasi-byronienne de la liberté, encore pleine du romantisme allemand ". Les meilleurs critiques des Lumières devaient être Allemands et Russes, derniers venus à la modernité politico-économique. Deux ans avant de publier ses étonnants Carnets du sous-sol, Dostoïevski, dans sa tournée en Europe occidentale, voyait déjà une société dominée par la guerre de tous contre tous, où la plupart étaient condamnés à être perdants.

À Londres, en 1862, à l’Exposition internationale au Palais de Cristal, Dostoïevski eut une illumination : " Vous prenez conscience d’une idée colossale […] qu’il y a ici la victoire et le triomphe. Vous commencez même vaguement à avoir peur de quelque chose. " Tout stupéfié qu’il était, Dostoïevski, plutôt astucieux, a pu observer comment la civilisation matérialiste était tout autant renforcée par son glamour que par sa domination militaire et maritime.

La littérature russe a finalement cristallisé le crime de hasard comme le paradigme de l’individualité savourant son identité et affirmant sa volonté – thème repris plus tard, au milieu du XXe siècle, par l’icône de la Beat Generation William Burroughs, qui prétendait que tirer au hasard était son frisson ultime.

Le chemin avait été tracé pour que le festin des mendiants commence à bombarder le Palais de Cristal – même si, comme Mishra nous le rappelle : " Les intellectuels du Caire, de Calcutta, de Tokyo et de Shanghai lisaient Jeremy Bentham, Adam Smith, Thomas Paine, Herbert Spencer et John Stuart Mill " pour comprendre le secret de la bourgeoisie capitaliste en perpétuelle expansion.

Et ceci après que Rousseau, en 1749, a posé la pierre angulaire de la révolte moderne contre la modernité, aujourd’hui éparpillée dans un désert où les échos se répondent, le Palais de Cristal est de facto implanté dans des ghettos luisants partout dans le monde.

Le Bwana des Lumières : lui mort, Missié

Mishra crédite l’idée de son livre à Nietzsche, en commentant la querelle épique entre l’envieux plébéien Rousseau et Voltaire, l’élitiste serein – qui a salué la Bourse de Londres, quand elle est devenue pleinement opérationnelle, comme l’incarnation laïque de l’harmonie sociale.

Mais ce fut Nietzsche qui finit par devenir l’acteur central, en tant que féroce détracteur du capitalisme libéral et du socialisme, faisant de la promesse séduisante de Zarathoustra un Saint Graal attractif pour les bolcheviks – Lénine le haïssait –, le gauchiste Lu Xun en Chine , les fascistes, anarchistes, féministes et hordes d’esthètes mécontents.

Mishra nous rappelle également comment " les anti-impérialistes asiatiques et les barons voleurs américains empruntent avec empressement " à Herbert Spencer, " le premier penseur véritablement mondial " qui a inventé le mantra de " la survie du plus apte " après avoir lu Darwin.

Nietzsche était le cartographe ultime du ressentiment. Max Weber a prophétiquement décrit le monde moderne comme une " cage de fer " dont seul un leader charismatique peut permettre l’évasion. De son côté, l’icône anarchiste Mikhaïl Bakounine avait déjà, en 1869, conceptualisé le révolutionnaire coupant " tout lien avec l’ordre social et avec tout le monde civilisé […] Il est son ennemi impitoyable et continue de l’habiter avec un seul but : Détruire ".

S’échappant du " cauchemar de l’histoire " du suprême moderniste James Joyce – en réalité la cage de fer de la modernité – une sécession, viscéralement militante, hors " d’une civilisation fondée sur un progrès éternel sous l’administration des libéraux-démocrates " est en train de faire rage, hors de contrôle, bien au-delà de l’Europe.

Des idéologies, qui pourraient être radicalement opposées, ont néanmoins grandi en symbiose avec le tourbillon culturel de la fin du XIXe siècle, depuis le fondamentalisme islamique, le sionisme et le nationalisme hindou jusqu’au bolchevisme, au nazisme, au fascisme et à l’impérialisme réaménagé.

Dans les années trente, le brillant et tragique Walter Benjamin, avait non seulement prophétisé la Seconde Guerre mondiale mais aussi la fin de la partie, alors qu’il était déjà en train d’alerter sur la propre aliénation de l’humanité, enfin capable " d’expérimenter sa propre destruction comme un plaisir esthétique du premier ordre ". La version pop actuelle en live-streaming, style bricolage, comme ISIS, essaie de se présenter comme la négation ultime des piétés de la modernité néolibérale.

L’ère du ressentiment

Tissant les fils savoureux de la politique et de la littérature par pollinisation croisée, Mishra prend son temps pour poser la scène du Grand Débat entre ces masses mondiales en développement, dont les vies sont forgées par " l’histoire largement reconnue de la violence " de l’Occident atlantiste, et des élites modernes nomades (Bauman) tirant profit du rendement de la partie – sélective – du monde qui a fait les percées cruciales depuis les Lumières dans la science, la philosophie, l’art et la littérature.

Cela va bien au-delà d’un simple débat entre l’Orient et l’Occident. Nous ne pouvons pas comprendre la guerre civile mondiale actuelle, ce " mélange intense d’envie, de sentiment d’humiliation et d’impuissance post-moderniste et post-vérité ", si nous n’essayons pas de " démanteler l’architecture conceptuelle et intellectuelle des gagnants de l’histoire en Occident ", issue du triomphalisme des exploits de l’histoire anglo-américaine. Même au summum de la Guerre froide, le théologien américain Reinhold Niebuhr se moquait des " ternes fanatiques de la civilisation occidentale " dans leur foi aveugle selon laquelle toute société est destinée à évoluer exactement comme une poignée de nations occidentales – parfois – l’ont fait.

Et cela – ironie ! – tandis que le culte internationaliste libéral du progrès imitait le rêve marxiste de la révolution internationaliste.

Dans sa préface de 1950 aux Origines du totalitarisme – un méga best-seller ressuscité –, Hannah Arendt nous a essentiellement dit d’oublier la restauration éventuelle du Vieil ordre mondial. Nous avons été condamnés à voir l’histoire se répéter, " l’itinérance à une échelle sans précédent, l’absence de racines à une profondeur sans précédent ".

Pendant ce temps, comme Carl Schorske l’a noté dans son spectaculaire Fin-de-Siècle à Vienne : Politique et Culture, l’érudition américaine a " coupé le lien de conscience " entre le passé et le présent, carrément aseptisé l’Histoire, des siècles de guerre civile, de ravage impérial, de génocide et d’esclavage en Europe et en Amérique ont ainsi tout simplement disparu. Seul le récit TINA (il n’y a pas d’alternative) a été autorisé, voici comment les atlantistes, avec le privilège de la raison et l’autonomie de la personne, ont fait le monde moderne.

Entre maintenant en scène Jalal Al-e-Ahmad, né en 1928 dans le sud pauvre de Téhéran, et l’auteur de Westoxification (1962), un texte majeur de référence sur l’idéologie islamiste, où il écrit que " l’Érostrate de Sartre tire au revolver, avec les yeux bandés, sur les gens dans la rue ; le protagoniste de Nabokov précipite sa voiture dans la foule ; et l’Étranger, Meursault, tue quelqu’un en réaction à un mauvais coup de soleil ". Vous pouvez parler d’un croisement mortel – l’existentialisme rencontre les bidonvilles de Téhéran pour souligner ce que Hanna Arendt a appelé la " solidarité négative ".

Arrive ensuite Abu Musab al-Suri, né en 1958 – un an après Osama ben Laden – dans une famille de la classe moyenne dévote, à Alep. C’est Al-Suri, et non l’Égyptien Al-Zawahiri, qui a conçu une stratégie de djihad mondial sans leader dans The Global Islamic Resistance Call, basée sur des cellules isolées et des opérations individuelles. Al-Suri était le " choc des civilisations " de Samuel Huntington appliqué à al-Qaïda. Mishra le définit comme le " Michel Bakounine du monde musulman ".

Cette " syphilis des passions révolutionnaires

Répondant à cette ridicule affaire néo-hégélienne de " fin de l’histoire ", après la Guerre froide, Allan Bloom a averti que le fascisme pourrait être l’avenir ; et John Gray a télégraphié le retour des " forces primordiales, nationalistes et religieuses, fondamentalistes et bientôt, peut-être, malthusiennes ".

Et cela nous amène à expliquer pourquoi les porteurs exceptionnels de l’humanisme et du rationalisme des Lumières ne peuvent expliquer l’agitation géopolitique actuelle – de ISIS au Brexit et à Trump. Ils ne peuvent jamais arriver à penser quelque chose de plus sophistiqué que l’opposition binaire de libre et non libre ; les mêmes clichés occidentaux du XIXe siècle sur le non-Occident ; et la diabolisation incessante de cet éternel Autre arriéré : l’islam. De là la nouvelle " longue guerre " (terminologie du Pentagone) contre l’islamofascisme. Ils ne pourraient jamais comprendre, comme le souligne Mishra, les implications de cette rencontre d’esprits dans une prison de Supermax au Colorado entre l’auteur de l’attentat d’Oklahoma City, l’Américain pur jus Timothy McVeigh et le cerveau de la première attaque contre le World Trade Center, Ramzi Yousef (musulman normal, père pakistanais, mère palestinienne).

Ils ne peuvent pas comprendre comment les concepteurs d’ISIS arrivent à enrégimenter, en ligne, un adolescent insulté et blessé d’une banlieue parisienne ou d’un bidonville africain et le convertir en narcissique – baudelairien ? – dandy fidèle à une cause émergente, pour laquelle il vaut la peine de se battre. Le parallèle entre le bricolage djihadiste et le terrorisme russe du XIXe siècle – incarnant la " syphilis des passions révolutionnaires ", comme l’a décrit Alexander Herzen – est étrange.

Le principal ennemi du djihad de bricolage n’est pas même chrétien; c’est le shi’ite apostat. Les viols massifs, les meurtres chorégraphiés, la destruction de Palmyre, Dostoïevski avait déjà tout identifié. Comme le dit Mishra, " il est impossible pour les Raskolnikov modernes de se dénier quoi que ce soit, mais il leur est possible de justifier tout ".

Il est impossible de résumer tous les feux croisés rhizomatiques – salut à Deleuze et Guattari – déployés à l’Âge de la colère. Ce qui est clair, c’est que pour comprendre la guerre civile mondiale actuelle, la réinterprétation archéologique du récit hégémonique de l’Occident des 250 dernières années est essentielle. Sinon, nous serons condamnés, comme des gnomes de Sisyphe, à supporter non seulement le cauchemar récurrent de l’Histoire, mais aussi son coup de fouet perpétuel.

Auteur: Escobar Pepe

Info: Février 2017, CounterPunch. Beaucoup d'idées sont tirées de son ouvrage : Globalistan, How the Globalized World is Dissolving into Liquid War, Nimble Books, 2007

[ vingt-et-unième siècle ]

 

Commentaires: 0

littérature

Les 19 lois du bon polar, selon Borges.

Le grand écrivain argentin s'était amusé à codifier la narration policière. En partenariat avec le magazine BoOks.

Dans son article "Lois de la narration policière" (1), de 1933, Jorge Luis Borges propose quelques règles élémentaires, ou "commandements", pour le récit policier classique. Ces conventions, comme il le remarque avec esprit, "ne visent pas à éluder les difficultés, mais plutôt à les imposer". Borges énonce explicitement les six règles suivantes:

1 : Une limite facultative de ses personnages

Les personnages doivent être peu nombreux et bien définis, de façon que lecteur puisse les connaître et les distinguer. "La téméraire infraction à cette loi est responsable de la confusion et de l'ennui fastidieux de tous les films policiers."

2 : Exposition de toutes les données du problème

On doit mettre toutes les cartes sur la table, sans as sortis de la manche à la dernière minute. À partir d'un certain point, le lecteur devra disposer de toutes les pistes nécessaires pour trouver lui-même la solution. "L'infraction répétée de cette deuxième loi est le défaut préféré de Conan Doyle. Il s'agit parfois de quelques imperceptibles particules de cendre, ramassées dans le dos du lecteur par ce privilégié d'Holmes. Parfois l'escamotage est plus grave. Il s'agit du coupable, terriblement démasqué au dernier moment, qui s'avère être un inconnu : une insipide et maladroite interpolation."

3 : Avare économie de moyens

Qu'un personnage se dédouble, on peut l'admettre, dit Borges. Mais que deux individus en contrefassent un troisième pour lui conférer un don d'ubiquité "court le risque incontestable de paraître une surcharge". La solution doit être la plus claire et nette possible, sans lourdeurs techniques, artifices improbables ou déploiements accablants de mouvements et de détails. La solution doit aussi pouvoir se déduire des ressources déjà mises en jeu, comme réorganisation des éléments connus.

4 : Primauté du comment sur le qui

Le véritable mystère d'un bon whodunit(2) n'est pas le nom de celui qui a commis le crime, mais ce que sera le nouvel ordre logique, plus subtil, la vérité souterraine qui éclaire le récit d'un nouveau jour.

5 : Pudeur de la mort

À la différence des thrillers du cinéma contemporain, où l'imagination cherche à concevoir des crimes de plus en plus sanglants et des cadavres de plus en plus choquants, dans le récit policier classique, la mort est comme une ouverture au jeu d'échecs et n'a pas en soi beaucoup d'importance. "Les pompes de la mort n'ont pas leur place dans la narration policière dont les muses glaciales sont l'hygiène, l'imposture et l'ordre", écrit Borges.

On trouve une transgression exemplaire de cette loi dans "le Noël d'Hercule Poirot"(3), d'Agatha Christie. Ce roman, comme on le comprend dans la dédicace, est conçu comme un défi, son beau-frère lui ayant reproché d'éviter le sang dans ses crimes. "Vous y déploriez que mes meurtres deviennent trop épurés - exsangues, pour parler net. Vous y réclamiez un de ces bons vieux meurtres bien saignants. Un meurtre qui, sans l'ombre d'un doute, en soit bien un." Le plus remarquable est peut-être que, dans ce crime esthétiquement opposé aux précédents, Agatha Christie reste elle-même: le cri terrifiant, la scène brutale du meurtre, le sang abondamment répandu sont des clés de l'élucidation finale.

6 : Nécessité et merveilleux dans la solution

"La première implique que le problème soit un problème précis susceptible d'une seule réponse, l'autre requiert que cette réponse puisse émerveiller le lecteur." Cette sensation de merveilleux, précise Borges, ne doit pas faire appel au surnaturel. La solution d'une énigme policière doit être comme la démonstration d'un théorème complexe: difficile à imaginer à partir des prémisses, mais dont la nécessité s'impose par la rigueur d'une explication parfaitement logique. En plus de ces six axiomes déclarés, Borges en postule indirectement certains autres dans son article: Le véritable récit policier repousse - ai-je besoin de le préciser - avec le même dédain les risques physiques et la justice distributive. Il fait abstraction, avec sérénité, des cachots, des escaliers secrets, des remords, de la voltige, des barbes postiches, de l'escrime, des chauves-souris, de Charles Baudelaire et même du hasard. Il découle de ce passage trois règles supplémentaires :

7 : Dédain des risques physiques

Dans ce dédain des risques physiques réside l'une des principales différences avec le roman noir ou le thriller cinématographique. Borges observe que, dans les premiers exemples du genre, "l'histoire se limite à la discussion et à la résolution abstraite d'un crime, parfois à cent lieues de l'événement ou bien éloignée dans le temps". Isidro Parodi, le détective qu'il imagina avec Bioy Casares, résout les énigmes alors qu'il est enfermé dans une prison. Dans les aventures de Sherlock Holmes comme dans celles d'Hercule Poirot, la vie du détective est parfois en danger imminent, mais ces risques sont éphémères et ne constituent jamais la matière narrative principale, sauf peut-être dans leurs dernières enquêtes. C. Auguste Dupin, la vieille Miss Marple, le père Brown et Perry Mason(4) sont tous des exemples de détectives à l'abri des risques physiques.

8 : Renoncement aux considérations ou jugements moraux

Sur la question de la "justice distributive", "la Huella del crimen" de Raúl Waleis, premier roman policier argentin (il date de 1877 et a été récemment réédité - (5)), avait l'intention déclarée de favoriser une nouvelle législation, à travers l'exposé d'une affaire mettant en évidence une faille dans la justice: "Le droit est la source où je puiserai mes arguments. Les mauvaises lois doivent être dénoncées pour les effets que produit leur application. Je crée le drame auquel j'applique la loi en vigueur. Ses conséquences fatales prouveront la nécessité de la réformer. " Les enquêtes de Perry Mason et les récits de Chesterton témoignaient peut-être d'un certain attachement aux canons de la justice et aux considérations morales sur les innocents et les coupables.

9 : Rejet du hasard

À cet égard, citons les intéressantes réflexions de Patricia Highsmith, qui ne craint pas de mettre à l'épreuve la crédulité du lecteur: " J'aime beaucoup qu'il y ait dans l'intrigue des coïncidences et des situations presque (mais pas entièrement) incroyables comme par exemple le plan audacieux qu'un homme propose à un autre qu'il connaît depuis deux heures à peine dans "L'Inconnu du Nord-Express". [...] L'idéal est que les événements prennent une tournure inattendue, en gardant une certaine consonance avec le caractère des personnages. La crédulité du lecteur, son sens de la logique - qui est très élastique -, peut être étirée au maximum, mais il ne faut pas la rompre " ("L'Art du suspense" (6), chap. 5). Le hasard peut survenir dans la narration comme ellipse, tout comme, dans les comédies, on accepte qu'une porte s'ouvre pour laisser sortir un personnage et qu'un autre apparaisse aussitôt. Ou comme le catalyseur d'une circonstance propice à l'accomplissement d'un crime quand le mobile n'est pas très affirmé. C'est ce qui arrive, par exemple, avec l'apparition d'un parent éloigné, dans "Paiement différé" (7) de Cecil Scott Forester. En revanche, le hasard ne devrait pas jouer un rôle décisif dans l'explication finale. À noter que, dans la nouvelle de Borges "la Mort et la Boussole", c'est un accident fortuit, une mort inattendue, qui donne à l'assassin l'idée de la série de meurtres qu'il va commettre. D'autres règles peuvent encore être tirées de l'article de Borges :

10 : Méfiance ou rejet des procédures de l'investigation policière

"Les démarches quotidiennes des investigations policières - empreintes digitales, torture et délation - sembleraient ici des solécismes." L'enquête policière appartient à l'ordre prosaïque des faits et du bon sens. C'est ce qui établit la différence entre le plan de l'enquête officielle de la justice et l'enquête parallèle, de l'ordre de la fiction - à l'écart des critères et des paramètres usuels -, que mène le détective. Dans "la Mort et la Boussole", ironiquement, le policier et le détective ont tous deux raison, mais chacun à sa manière.

11 : L'assassin doit appartenir à la distribution initiale des personnages

"Dans les récits honnêtes, écrit Borges, le criminel est l'une des personnes qui figurent dès le début."

12 : La solution doit éviter le recours au surnaturel, qui ne peut être invoqué que comme une conjecture transitoire à écarter

La réponse doit émerveiller le lecteur "sans faire appel bien sûr au surnaturel, dont l'usage dans ce genre de fiction est un alanguissement et une félonie. Chesterton réalise toujours le tour de force de proposer une explication surnaturelle et de la remplacer ensuite, sans perdre au change, par une autre, toute naturelle."

13 : La solution ne peut comporter des éléments inconnus du lecteur

"Sont également prohibés [...] les élixirs d'origine inconnue." Voici donc les règles énoncées par Borges dans son article. Nous pourrions en rajouter quelques autres :

14 : Omission de la vie privée du détective et de ses aventures sentimentales ou sexuelles

Règle enfreinte dans tous les films policiers, où immanquablement l'enquêteur divorce, mène une existence malheureuse et a une liaison avec l'actrice principale.

15 : Dans le cas d'un double ou triple dénouement, il doit y avoir une progression, chaque fin surpassant la précédente en ingéniosité et en rigueur

Comme dans la règle des trois adjectifs que mentionne Proust à propos des salons de la bonne société française, le troisième est tenu de surpasser les deux premiers.

16 : Le meurtrier ne peut être le majordome (à moins d'être dans un congrès de majordomes)

L'assassin ne peut être un personnage trop secondaire, maintenu en permanence caché, comme une carte que l'on garde pour la fin.

17 : L'assassin ne peut être l'immigré ou le fanatique religieux ou le suspect d'extrémisme politique

Règle toujours soigneusement respectée par Agatha Christie. Les mobiles du meurtre doivent être intimes et le meurtrier doit appartenir au noyau dur de l'histoire. Cette règle est négligée de manière particulièrement décevante dans "Meurtriers sans visage", de Henning Mankell.

18 : L'assassin ne doit pas être le narrateur

Règle admirablement transgressée par Agatha Christie dans "le Meurtre de Roger Ackroyd" et, de manière plus prévisible, par Tchekhov dans "la Confession".

19 : L'assassin ne doit pas être l'enquêteur

Règle non respectée par Agatha Christie dans "le Noël d'Hercule Poirot" et par Juan José Saer dans "l'Enquête". Pourrait-on encore allonger cette liste ? Assurément. Mais cela créerait peut-être une fausse illusion, l'illusion que le genre peut être circonscrit et réduit à un formalisme d'axiomes, à une liste de règles et de procédés. Une illusion symétrique et tout aussi erronée - bien que prisée dans les tables rondes, car elle permet la pose iconoclaste et les métaphores guerrières - veut que le genre doit être dynamité, qu'il faut faire voler en éclats toutes les règles, que les lois sont faites pour être violées. Quiconque s'y est essayé sait en tout cas qu'il est difficile, sinon impossible, de se défaire de toutes à la fois, et qu'il y a dans le genre policier une tension extraordinaire entre ce qui a déjà été dit, entre la rhétorique accumulée dans des milliers de romans, et ce qui reste encore à dire, à la limite des règles. Les lois sont, en ce sens, comme une barrière que l'astuce et la créativité doivent franchir. Dans une des très rares occasions où Borges conçoit un projet de roman (dans l'article "è vero, ma non troppo", paru en 1938 dans la revue "El Hogar") ce n'est pas un hasard s'il choisit, entre tous les genres littéraires, le roman policier. Le sien serait, dit-il, "un peu hétérodoxe". Et il souligne que c'est là un point important, car "le genre policier, comme tous les genres, vit de l'incessante et délicate infraction à ses lois". Oui, la délicate infraction à ses lois.

Auteur: Martinez Guillermo

Info: Texte paru dans le quotidien argentin La Nación, le 15 août 2009, traduit de l'espagnol par François Gaudry

[ recettes ] [ écriture ]

 

Commentaires: 0

homme-machine

Un pas de géant pour une machine à jouer aux échecs

Le succès stupéfiant d’AlphaZero, un algorithme d’apprentissage profond, annonce une nouvelle ère de la compréhension – une ère qui, en ce qui concerne les humains, qui pourrait ne pas durer longtemps. Début décembre, des chercheurs de DeepMind, la société d’intelligence artificielle appartenant à la société mère de Google, Alphabet Inc. ont diffusé une dépêche depuis les zones avancées du monde des échecs.

Un an plus tôt, le 5 décembre 2017, l’équipe avait stupéfié ce monde des échecs en annonçant AlphaZero, un algorithme d’apprentissage machine qui maîtrisait non seulement les échecs mais aussi le shogi, ou échecs japonais, et le Go. L’algorithme a commencé sans aucune connaissance des jeux hormis leurs règles de base. Il a ensuite joué contre lui-même des millions de fois et a appris par essais et erreurs. Il a suffi de quelques heures pour que l’algorithme devienne le meilleur joueur, humain ou ordinateur, que le monde ait jamais vu.

Les détails des capacités d’AlphaZero et de son fonctionnement interne ont maintenant été officiellement examinés par des pairs et publiés dans la revue Science ce mois-ci. Le nouvel article aborde plusieurs critiques graves à l’égard de l’allégation initiale (entre autres choses, il était difficile de dire si AlphaZero jouait l’adversaire qu’il s’était choisi, une entité computationnelle nommée Stockfish, en toute équité). Considérez que ces soucis sont maintenant dissipés. AlphaZero ne s’est pas amélioré davantage au cours des douze derniers mois, mais la preuve de sa supériorité s’est bien renforcée. Il fait clairement montre d’un type d’intellect que les humains n’ont jamais vue auparavant, et que nous allons avoir à méditer encore longtemps.

Les échecs par ordinateur ont fait beaucoup de chemin au cours des vingt dernières années. En 1997, le programme de jeu d’échecs d’I.B.M., Deep Blue, a réussi à battre le champion du monde humain en titre, Garry Kasparov, dans un match en six parties. Rétrospectivement, il y avait peu de mystère dans cette réalisation. Deep Blue pouvait évaluer 200 millions de positions par seconde. Il ne s’est jamais senti fatigué, n’a jamais fait d’erreur de calcul et n’a jamais oublié ce qu’il pensait un instant auparavant.

Pour le meilleur et pour le pire, il a joué comme une machine, brutalement et matériellement. Il pouvait dépasser M. Kasparov par le calcul, mais il ne pouvait pas le dépasser sur le plan de la pensée elle-même. Dans la première partie de leur match, Deep Blue a accepté avec avidité le sacrifice d’une tour par M. Kasparov pour un fou, mais a perdu la partie 16 coups plus tard. La génération actuelle des programmes d’échecs les plus forts du monde, tels que Stockfish et Komodo, joue toujours dans ce style inhumain. Ils aiment à capturer les pièces de l’adversaire. Ils ont une défense d’acier. Mais bien qu’ils soient beaucoup plus forts que n’importe quel joueur humain, ces "moteurs" d’échecs n’ont aucune réelle compréhension du jeu. Ils doivent être instruits explicitement pour ce qui touche aux principes de base des échecs. Ces principes, qui ont été raffinés au fil de décennies d’expérience de grands maîtres humains, sont programmés dans les moteurs comme des fonctions d’év

aluation complexes qui indiquent ce qu’il faut rechercher dans une position et ce qu’il faut éviter : comment évaluer le degré de sécurité du roi, l’activité des pièces, la structure dessinée par les pions, le contrôle du centre de l’échiquier, et plus encore, comment trouver le meilleur compromis entre tous ces facteurs. Les moteurs d’échecs d’aujourd’hui, inconscients de façon innée de ces principes, apparaissent comme des brutes : extrêmement rapides et forts, mais sans aucune perspicacité.

Tout cela a changé avec l’essor du machine-learning. En jouant contre lui-même et en mettant à jour son réseau neuronal au fil de son apprentissage, AlphaZero a découvert les principes des échecs par lui-même et est rapidement devenu le meilleur joueur connu. Non seulement il aurait pu facilement vaincre tous les maîtres humains les plus forts – il n’a même pas pris la peine d’essayer – mais il a écrasé Stockfish, le champion du monde d’échecs en titre par ordinateur. Dans un match de cent parties contre un moteur véritablement impressionnant, AlphaZero a remporté vingt-huit victoires et fait soixante-douze matchs nuls. Il n’a pas perdu une seule partie.

Le plus troublant, c’est qu’AlphaZero semblait être perspicace. Il a joué comme aucun ordinateur ne l’a jamais fait, intuitivement et magnifiquement, avec un style romantique et offensif. Il acceptait de sacrifier des pions et prenait des risques. Dans certaines parties, cela paralysait Stockfish et il s’est joué de lui. Lors de son attaque dans la partie n°10, AlphaZero a replacé sa reine dans le coin du plateau de jeu de son propre côté, loin du roi de Stockfish, pas là où une reine à l’offensive devrait normalement être placée.

Et cependant, cette retraite inattendue s’avéra venimeuse : peu importe comment Stockfish y répondait, ses tentatives étaient vouées à l’échec. C’était presque comme si AlphaZero attendait que Stockfish se rende compte, après des milliards de calculs intensifs bruts, à quel point sa position était vraiment désespérée, pour que la bête abandonne toute résistance et expire paisiblement, comme un taureau vaincu devant un matador. Les grands maîtres n’avaient jamais rien vu de tel. AlphaZero avait la finesse d’un virtuose et la puissance d’une machine. Il s’agissait du premier regard posé par l’humanité sur un nouveau type prodigieux d’intelligence.

Lorsque AlphaZero fut dévoilé pour la première fois, certains observateurs se sont plaints que Stockfish avait été lobotomisé en ne lui donnant pas accès à son livre des ouvertures mémorisées. Cette fois-ci, même avec son livre, il a encore été écrasé. Et quand AlphaZero s’est handicapé en donnant dix fois plus de temps à Stockfish qu’à lui pour réfléchir, il a quand même démoli la bête.

Ce qui est révélateur, c’est qu’AlphaZero a gagné en pensant plus intelligemment, pas plus vite ; il n’a examiné que 60 000 positions par seconde, contre 60 millions pour Stockfish. Il était plus avisé, sachant ce à quoi on devait penser et ce qu’on pouvait ignorer. En découvrant les principes des échecs par lui-même, AlphaZero a développé un style de jeu qui "reflète la vérité profonde" du jeu plutôt que "les priorités et les préjugés des programmeurs", a expliqué M. Kasparov dans un commentaire qui accompagne et introduit l’article dans Science.

La question est maintenant de savoir si l’apprentissage automatique peut aider les humains à découvrir des vérités similaires sur les choses qui nous tiennent vraiment à coeur : les grands problèmes non résolus de la science et de la médecine, comme le cancer et la conscience ; les énigmes du système immunitaire, les mystères du génome.

Les premiers signes sont encourageants. En août dernier, deux articles parus dans Nature Medicine ont exploré comment l’apprentissage automatique pouvait être appliqué au diagnostic médical. Dans l’un d’entre eux, des chercheurs de DeepMind se sont associés à des cliniciens du Moorfields Eye Hospital de Londres pour mettre au point un algorithme d’apprentissage profond qui pourrait classer un large éventail de pathologies de la rétine aussi précisément que le font les experts humains (l’ophtalmologie souffre en effet d’une grave pénurie d’experts à même d’interpréter les millions de scans ophtalmologiques effectués chaque année en vue d’un diagnostic ; des assistants numériques intelligents pourraient apporter une aide énorme).

L’autre article concernait un algorithme d’apprentissage machine qui décide si un tomodensitogramme (CT scan) d’un patient admis en urgence montre des signes d’un accident vasculaire cérébral (AVC), ou d’une hémorragie intracrânienne ou encore d’un autre événement neurologique critique. Pour les victimes d’AVC, chaque minute compte ; plus le traitement tarde, plus le résultat clinique se dégrade. (Les neurologistes ont ce sombre dicton: "time is brain"). Le nouvel algorithme a étiqueté ces diagnostics et d’autres diagnostics critiques avec une précision comparable à celle des experts humains – mais il l’a fait 150 fois plus rapidement. Un diagnostic plus rapide pourrait permettre aux cas les plus urgents d’être aiguillés plus tôt, avec une vérification par un radiologiste humain.

Ce qui est frustrant à propos de l’apprentissage machine, cependant, c’est que les algorithmes ne peuvent pas exprimer ce qu’ils pensent. Nous ne savons pas pourquoi ils marchent, donc nous ne savons pas si on peut leur faire confiance. AlphaZero donne l’impression d’avoir découvert quelques principes importants sur les échecs, mais il ne peut pas partager cette compréhension avec nous. Pas encore, en tout cas. En tant qu’êtres humains, nous voulons plus que des réponses. Nous voulons de la perspicacité. Voilà qui va créer à partir de maintenant une source de tension dans nos interactions avec ces ordinateurs.

De fait, en mathématiques, c’est une chose qui s’est déjà produite depuis des années. Considérez le problème mathématique du "théorème des quatre couleurs", qui défie de longue date les cerveaux des mathématiciens. Il énonce que, sous certaines contraintes raisonnables, toute carte de pays contigus puisse toujours être coloriée avec seulement quatre couleurs, en n’ayant jamais deux fois la même couleur pour des pays adjacents.

Bien que le théorème des quatre couleurs ait été prouvé en 1977 avec l’aide d’un ordinateur, aucun humain ne pouvait vérifier toutes les étapes de la démonstration. Depuis lors, la preuve a été validée et simplifiée, mais il y a encore des parties qui impliquent un calcul de force brute, du genre de celui employé par les ancêtres informatiques d’AlphaZero qui jouent aux échecs. Ce développement a gêné de nombreux mathématiciens. Ils n’avaient pas besoin d’être rassurés que le théorème des quatre couleurs était vrai ; ils le croyaient déjà. Ils voulaient comprendre pourquoi c’était vrai, et cette démonstration ne les y a pas aidés.

Mais imaginez un jour, peut-être dans un avenir pas si lointain, où AlphaZero aura évolué vers un algorithme de résolution de problèmes plus général ; appelez-le AlphaInfinity. Comme son ancêtre, il aurait une perspicacité suprême : il pourrait trouver de belles démonstrations, aussi élégantes que les parties d’échecs qu’AlphaZero jouait contre Stockfish. Et chaque démonstration révélerait pourquoi un théorème était vrai ; l’AlphaInfinity ne vous l’enfoncerait pas juste dans la tête avec une démonstration moche et ardue.

Pour les mathématiciens et les scientifiques humains, ce jour marquerait l’aube d’une nouvelle ère de perspicacité. Mais ça ne durera peut-être pas. Alors que les machines deviennent de plus en plus rapides et que les humains restent en place avec leurs neurones fonctionnant à des échelles de temps de quelques millisecondes, un autre jour viendra où nous ne pourrons plus suivre. L’aube de la perspicacité humaine peut rapidement se transformer en crépuscule.

Supposons qu’il existe des régularités ou des modèles plus profonds à découvrir – dans la façon dont les gènes sont régulés ou dont le cancer progresse ; dans l’orchestration du système immunitaire ; dans la danse des particules subatomiques. Et supposons que ces schémas puissent être prédits, mais seulement par une intelligence bien supérieure à la nôtre. Si AlphaInfinity pouvait les identifier et les comprendre, cela nous semblerait être un oracle.

Nous nous assiérions à ses pieds et écouterions attentivement. Nous ne comprendrions pas pourquoi l’oracle a toujours raison, mais nous pourrions vérifier ses calculs et ses prédictions par rapport aux expériences et aux observations, et confirmer ses révélations. La science, cette entreprise de l’homme qui le caractérise par-dessus tout, aurait réduit notre rôle à celui de spectateurs, bouches bées dans l’émerveillement et la confusion.

Peut-être qu’un jour, notre manque de perspicacité ne nous dérangerait plus. Après tout, AlphaInfinity pourrait guérir toutes nos maladies, résoudre tous nos problèmes scientifiques et faire arriver tous nos autres trains intellectuels à l’heure avec succès. Nous nous sommes assez bien débrouillés sans trop de perspicacité pendant les quelque 300.000 premières années de notre existence en tant qu’Homo sapiens. Et nous ne manquerons pas de mémoire : nous nous souviendrons avec fierté de l’âge d’or de la perspicacité humaine, cet intermède glorieux, long de quelques milliers d’années, entre un passé où nous ne pouvions rien appréhender et un avenir où nous ne pourrons rien comprendre.

Auteur: Strogatz Steven

Info: Infinite Powers : How Calculus Reveals the Secrets of the Universe, dont cet essai est adapté sur le blog de Jorion

[ singularité ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel