Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 69
Temps de recherche: 0.0709s

sexualité

La culotte peut-elle être chaude et la tête froide ?

Est-il possible qu'une femme soit physiquement excitée sans s'en apercevoir ? A la vue de films érotiques qui les font abondamment mouiller, la majorité des femmes prétendent que ces films les laissent "de glace". Mépris du corps ? Déni du désir ?

Si on demande aux femmes quels scénarios les excitent, elles ont tendance à minorer. Faudrait pas avoir l'air trop "salope". Officiellement, donc, les femmes - pour leur majorité - n'aiment pas l'idée de se retrouver au lit avec trois hommes, ni de se faire payer par un bel inconnu pour le rejoindre dans une chambre d'hôtel, ni les plans hardcore, ni la sodomie, etc.

Fatiguée d'entendre toujours le même discours, la chercheuse américaine Meredith Chivers invente un appareil à mesurer l'excitation et découvre que les femmes sont excitées... même lorsqu'elles affirment le contraire. Ces femmes mentent-elles ? "Non", répond Meredith Chivers, qui part du principe que ses cobayes sont de bonne foi lorsqu'elles passent le test. Dans ce cas, comment expliquer un tel aveuglement ? S'agit-il d'un refus inconscient de ses propres émois, conditionné par l'éducation ? Ou d'une plus grande "capacité" de faire la part des choses entre les manifestations physiologiques et l'excitation mentale ? Plusieurs hypothèses sont possibles.

EXCITÉE SANS LE SAVOIR

La première hypothèse repose sur l'idée d'une disparité fonctionnelle entre le pénis et le vagin. En d'autres termes : il est cliniquement possible que la femme soit excitée sans le savoir. Dans Le Secret des femmes*, Elisa Brune et Yves Ferroul l'expliquent ainsi : "Un clitoris peut être gorgé de sang et gonflé en érection sans que sa propriétaire en soit le moins du monde au courant. Situation impossible pour un pénis dont l'aspect crie son état sur tous les toits. Raison, sans doute, pour laquelle excitation mentale et excitation physiologique sont plus étroitement liées chez l'homme que chez la femme. Raison aussi pour laquelle la probabilité de masturbation spontanée est plus grande chez les garçons que chez les filles. Une érection visible, d'un côté, va induire un comportement de curiosité et de renforcement de l'excitation, alors qu'une érection invisible, de l'autre côté, va laisser le champ ouvert à une multitude de ressentis différents : excitation, ou gêne, ou malaise, ou incompréhension, ou saute d'humeur, ou inconscience pure et simple. Est-ce pour cela que 54 % des hommes disent penser au sexe au moins une fois par jour, contre seulement 19 % des femmes ?" "On peut donc être excitée, poursuivent-elles, sans le savoir, et ce même lorsqu'on baigne dans une ambiance sexuelle. Lorsqu'on soumet des hommes et des femmes à des stimuli pornographiques, les réponses physiologiques sont équivalentes en rapidité et en intensité (mesurée par l'augmentation du débit sanguin dans les organes génitaux qui lui-même induit la lubrification chez la femme). À cette différence près que les femmes déclarent souvent ne ressentir aucune excitation (là où les hommes sont parfaitement conscients de ce qui se passe)." Pour Elisa Brune et Yves Ferroul, il est physiologiquement possible pour une femme de rester sourde aux appels lancés depuis sa culotte. Mais cette surdité est-elle une bonne chose ? Culturellement, les femmes sont éduquées à nier leurs désirs. Si elles se bouchent les oreilles, refusant d'entendre ce que le corps leur dit, faut-il se contenter de dire "C'est comme ça ?". Ou faut-il inciter les filles à se fier plus à leurs sensations physiques qu'à la morale répressive ambiante?

DÉSOLANTE PSYCHOLOGIE ÉVOLUTIONNISTE

La question est difficile car il se peut fort que les sécrétions vaginales n'aient POUR DE VRAI rien à voir avec l'excitation mentale. "On a déjà constaté des vagins lubrifiés lors de viols, ce qui ne veut pas dire pour autant qu'il y avait consentement ou plaisir, raconte Elisa Brune. La paroi vaginale répond du tac au tac lorsqu'on a besoin d'elle, quel que soit le scénario." Le problème avec cette hypothèse-là, c'est qu'elle est récupérée par des adeptes de la psychologie évolutionniste et détournée à leur profit : ils affirment que la "vasocongestion réflexe" du vagin (le fait que les femmes se mettent à mouiller dès qu'elles sont confrontées à des corps nus ou des situations sexuelles) "pourrait être le résultat d'une adaptation évolutive rendant la femelle apte au coït plus rapidement, c'est à-dire indistinctement à la moindre alerte, ce qui la protègerait des blessures en cas de sollicitation brutale." Idée rancie, sous-tendue par une idéologie scientiste qui ramène systématiquement le désir à sa seule dimension biologique.

Il est toujours désolant de constater que les résultats de recherche qui devraient nous amener à poser de vraies questions sur ce que nous sommes (ou ce que nous voulons) sont mises au profit d'un discours -rabâché ad nauseam- réduisant la sexualité à n'être qu'un instinct primal, puis qu'un programme génétique, hérité du Pléistocène. C'est le même discours que celui qui consiste à dire : la pornographie est une drogue, puisqu'elle réduit notre self-contrôle ; les hommes sont naturellement des violeurs polygames attirés par le rapport taille-hanche de 0,7 ; les femmes sont naturellement des harpies frigides, possessives et monogames... Il est désolant de constater que ce discours, désespérant car rempli de mépris envers la complexité humaine, reste la réponse à tout lorsque nous sommes confrontés à des données étranges. Pourquoi les femmes s'excitent-elles sur les bonobos qui copulent et pas les hommes ?

OUVRIR DE NOUVELLES PISTES

Dans un article datant du 21 mars 2014, le chercheur Martin Baker (1) avance : "Lorsque Meredith a fait cette curieuse découverte, elle avait bien conscience que ça ne collait pas avec la doxa. La doxa veut que les mâles humains soient excités par le fait de multiplier leurs partenaires et que les femelles humaines, au contraire, ne soient excitées que par la tendresse et l'amour. Le problème que soulève la contradiction entre ce qui les excite physiquement et ce qu'elles prétendent devrait pourtant nous encourager à ouvrir de nouvelles pistes de réflexion sur la sexualité."

Après quoi, Martin Baker propose son analyse : "Nos corps réagissent à certaines images et, ce faisant, nos corps nous encouragent à définir ce qu'est le sexe et la sexualité suivant des critères physiologiques... Nous sommes des créatures remplies de désir pour le sexe, mais également remplies d'attirance pour le désir lui-même. Quand nous grandissons, nous devenons conscient de la possibilité du sexe. Nous apprenons à identifier les réponses physiologiques de nos corps aux possibilités sexuelles. Nous apprenons également à nous définir en fonction de ces réponses : il y a des choses qui nous excitent et d'autres pas. Cela fonde notre identité (sexuelle, mais pas que). Nous apprenons à comprendre qui nous sommes en comparant ce qui nous excite avec ce qui excite les autres et à voir le monde comme un champ ouvert d'interdits ou de possibilités. Ainsi se construit notre univers fantasmatique, à la croisée du corps, du moi et des normes culturelles. Les trois sont nécessaires et il serait intéressant de réfléchir sur la sexualité entendue comme le résultat d'une interaction entre ces trois univers.

Auteur: Giard Agnès

Info: 25 janv. 2015

[ femmes-par-hommes ] [ sciences ] [ femmes-par-femme ]

 

Commentaires: 0

transposition linguistique

La théorie de la traduction est très rarement - comment dire ? - comique. Son mode de fonctionnement est celui de l'élégie et de l'admonestation sévère. Au XXe siècle, ses grandes figures étaient Vladimir Nabokov, en exil de la Russie soviétique, attaquant des libertins comme Robert Lowell pour leurs infidélités au sens littéral ; ou Walter Benjamin, juif dans un Berlin proto-nazi, décrivant la tâche du traducteur comme un idéal impossible d'exégèse. On ne peut jamais, selon l'argument élégiaque, reproduire précisément un vers de poésie dans une autre langue. Poésie ! Tu ne peux même pas traduire "maman"... Et cet argument élégiaque a son mythe élégiaque : la Tour de Babel, où la multiplicité des langues du monde est considérée comme la punition de l'humanité - condamnée aux hurleurs, aux faux amis, aux applications de menu étrangères. Alors que l'état linguistique idéal serait la langue universelle perdue de l'Eden.

La théorie de la traduction est rarement désinvolte ou joyeuse.

Le nouveau livre de David Bellos sur la traduction contourne d'abord cette philosophie. Il décrit les dragons de la Turquie ottomane, l'invention de la traduction simultanée lors du procès de Nuremberg, les dépêches de presse, les bulles d'Astérix, les sous-titres de Bergman, etc.... Il propose une anthropologie des actes de traduction. Mais à travers cette anthropologie, c'est un projet beaucoup plus grand qui émerge. Les anciennes théories étaient élégiaques, majestueuses ; elles étaient très sévères. Bellos est pratique et vif. Il n'est pas éduqué par l'élégie. Et c'est parce qu'il est sur quelque chose de nouveau.

Bellos est professeur de français et de littérature comparée à l'université de Princeton, et également directeur du programme de traduction et de communication interculturelle de cette université (où, je dois le préciser, j'ai déjà pris la parole). Mais pour moi, il est plus intéressant en tant que traducteur de deux romanciers particulièrement grands et problématiques : le Français Georges Perec, dont l'œuvre se caractérise par un souci maniaque de la forme, et l'Albanais Ismail Kadare, dont Bellos traduit l'œuvre non pas à partir de l'original albanais, mais à partir de traductions françaises supervisées par Kadare. La double expérience de Bellos avec ces romanciers est, je pense, à l'origine de son nouveau livre, car ces expériences de traduction prouvent deux choses : Il est toujours possible de trouver des équivalents adéquats, même pour une prose maniaquement formelle, et il est également possible de trouver de tels équivalents dans une langue qui n'est pas l'original de l'œuvre. Alors que selon les tristes théories orthodoxes de la traduction, aucune de ces vérités ne devrait être vraie.

À un moment donné, Bellos cite avec une fierté légitime un petit exemple de sa propre inventivité. Dans le roman de Perec "La vie : Mode d'emploi" de Perec, un personnage se promène dans une arcade parisienne et s'arrête pour regarder les "cartes de visite humoristiques dans la vitrine d'un magasin de farces et attrapes". Dans l'original français de Perec, l'une de ces cartes est : "Adolf Hitler/Fourreur". Un fourreur est un fourreur, mais la blague de Perec est que cela ressemble aussi à la prononciation française de Führer. Donc Bellos, dans sa version anglaise, traduit à juste titre "fourreur" non pas par "furrier", mais comme ceci : "Adolf Hitler/Lieder allemand". Le nouveau jeu de mots multiphonique de Bellos est une parodie, sans aucun doute - et c'est aussi la traduction la plus précise possible.

Les conclusions que ce paradoxe exige sont, disons, déconcertantes pour le lecteur vieux jeu. Nous sommes habitués à penser que chaque personne parle une langue individuelle - sa langue maternelle - et que cette langue maternelle est une entité discrète, avec un vocabulaire manipulé par une grammaire fixe. Mais cette image, selon Bellos, ne correspond pas aux changements quotidiens de nos multiples langues, ni au désordre de notre utilisation des langues. L'ennemi philosophique profond de Bellos est ce qu'il appelle le "nomenclaturisme", "la notion que les mots sont essentiellement des noms" - une notion qui a été amplifiée dans notre ère moderne d'écriture : une conspiration de lexicographes. Cette idée fausse l'agace parce qu'elle est souvent utilisée pour soutenir l'idée que la traduction est impossible, puisque toutes les langues se composent en grande partie de mots qui n'ont pas d'équivalent unique et complet dans d'autres langues. Mais, écrit Bellos, "un terme simple comme 'tête', par exemple, ne peut être considéré comme le 'nom' d'une chose particulière. Il apparaît dans toutes sortes d'expressions". Et si aucun mot en français, par exemple, ne couvre toutes les connotations du mot "tête", sa signification "dans un usage particulier peut facilement être représentée dans une autre langue".

Cette idée fausse a toutefois une très longue histoire. Depuis que saint Jérôme a traduit la Bible en latin, le débat sur la traduction s'est dissous dans l'ineffable - la fameuse idée que chaque langue crée un monde mental essentiellement différent et que, par conséquent, toutes les traductions sont vouées à l'insuffisance philosophique. Dans la nouvelle proposition de Bellos, la traduction "présuppose au contraire... la non-pertinence de l'ineffable dans les actes de communication". En zigzaguant à travers des études de cas de bibles missionnaires ou de machines linguistiques de la guerre froide, Bellos élimine calmement cette vieille idée de l'ineffable, et ses effets malheureux.

On dit souvent, par exemple, qu'une traduction ne peut jamais être un substitut adéquat de l'original. Mais une traduction, écrit Bellos, n'essaie pas d'être identique à l'original, mais d'être comme lui. C'est pourquoi le duo conceptuel habituel de la traduction - la fidélité et le littéral - est trop maladroit. Ces idées dérivent simplement de l'anxiété déplacée qu'une traduction essaie d'être un substitut. Adolf Hitler/Fourreur ! Une traduction en anglais par "furrier" serait littéralement exacte ; ce serait cependant une ressemblance inadéquate.

En littérature, il existe un sous-ensemble connexe de cette anxiété : l'idée que le style - puisqu'il établit une relation si complexe entre la forme et le contenu - rend une œuvre d'art intraduisible. Mais là encore, cette mélancolie est mélodramatique. Il sera toujours possible, dans une traduction, de trouver de nouvelles relations entre le son et le sens qui soient d'un intérêt équivalent, voire phonétiquement identiques. Le style, comme une blague, a juste besoin de la découverte talentueuse d'équivalents. "Trouver une correspondance pour une blague et une correspondance pour un style", écrit Bellos, "sont deux exemples d'une aptitude plus générale que l'on pourrait appeler une aptitude à la correspondance de modèles".

La traduction, propose Bellos dans une déclaration sèchement explosive, plutôt que de fournir un substitut, "fournit pour une certaine communauté une correspondance acceptable pour une énonciation faite dans une langue étrangère." Ce qui rend cette correspondance acceptable variera en fonction de l'idée que se fait cette communauté des aspects d'un énoncé qui doivent être assortis de sa traduction. Après tout, "on ne peut pas s'attendre à ce qu'une traduction ressemble à sa source sur plus de quelques points précis". Une traduction ne peut donc pas être bonne ou mauvaise "à la manière d'une interrogation scolaire ou d'un relevé bancaire". Une traduction s'apparente davantage à un portrait à l'huile". Dans une traduction, comme dans toute forme d'art, la recherche est celle d'un signe équivalent.

Et pour les habitants de Londres ou de Los Angeles, ce démantèlement des mythes autour de la traduction a des implications particulières. Comme le souligne Bellos, ceux qui sont nés anglophones sont aujourd'hui une minorité de locuteurs de l'anglais : la plupart le parlent comme une deuxième langue. L'anglais est la plus grande interlangue du monde.

Je pense donc que deux perspectives peuvent être tirées de ce livre d'une inventivité éblouissante, et elles sont d'une ampleur réjouissante. Le premier concerne tous les anglophones. Google Translate, sans aucun doute, est un appareil à l'avenir prometteur. Il connaît déjà un tel succès parce que, contrairement aux traducteurs automatiques précédents, mais comme d'autres inventions de Google, il s'agit d'une machine à reconnaissance de formes. Il analyse le corpus des traductions existantes et trouve des correspondances statistiques. Je pense que les implications de ce phénomène n'ont pas encore été suffisamment explorées : des journaux mondiaux aux romans mondiaux... . . . Et cela m'a fait imaginer une deuxième perspective - limitée à un plus petit, hyper-sous-ensemble d'anglophones, les romanciers. Je suis un romancier anglophone, après tout. Je me suis dit qu'il n'y avait aucune raison pour que les traductions d'œuvres de fiction ne puissent pas être faites de manière beaucoup plus extensive dans et à partir de langues qui ne sont pas les langues d'origine de l'œuvre. Oui, j'ai commencé à caresser l'idée d'une future histoire du roman qui serait imprudemment internationale. En d'autres termes : il n'y aurait rien de mal, pensais-je, à rendre la traduction plus joyeuse. 


Auteur: Thirlwell Adam

Info: https://www.nytimes.com/2011/10/30. A propos du livre : Le côté joyeux de la traduction, Faber & Faber Ed. Texte traduit à 90% par deepl.com/translator

 

Commentaires: 0

Ajouté à la BD par miguel

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

chronos

Prix Nobel de physique 2023 : on a tout compris et on vous explique simplement pourquoi c’est génial

Anne L’Huillier, Ferenc Krausz et Pierre Agostini ont inventé la physique attoseconde, et ça méritait bien d’être expliqué.

Les "impulsions laser très courtes permettant de suivre le mouvement ultrarapide des électrons à l’intérieur des molécules et des atomes", vous dites ? Les lauréats du prix Nobel de physique 2023, le Hongrois Ferenc Krausz et les Français Anne L’Huillier et Pierre Agostini n’ont pas choisi le thème le plus parlant aux néophytes (mais la physique fondamentale l’est rarement).

Commençons par un terme étrange : les lauréats sont les inventeurs de la physique attoseconde. Atto, quoi ? Une attoseconde est une fraction de seconde, précisément 1×10−18 seconde : c’est très, très peu. "Pour vous donner une idée", explique au HuffPost le physicien Franck Lépine, chercheur du CNRS à l’Institut lumière matière, et collaborateur des Nobel 2023, en terme d’ordre de grandeur "il y a autant de différence entre une attoseconde et une seconde qu’entre une seconde et l’âge de l’univers".

Lorsqu'il est contemplé à cette échelle de temps, le monde ralentit. Le battement d'ailes d'un colibri devient une éternité.

Aller "chercher" une attoseconde précise dans une seconde, c’est donc pointer une seconde précise dans l’univers depuis sa naissance. On vous l’avait bien dit, c’est court, un laps de temps à peine concevable.

La photo la plus rapide du monde

Mais comment ont-ils "inventé" cette physique ? Les Nobel 2023 ont réussi à mettre au point un appareil qui permet d’observer les électrons au sein de la matière : des éléments au déplacement si rapide que seul un "flash" de l’ordre de l’attoseconde permet de les capturer. Les trois chercheurs sont donc récompensés pour la mise au point d’une "caméra" ultrarapide… Et on va même vous raconter comment elle fonctionne.

Une impulsion très puissante est envoyée au laser vers des atomes. Sous l’effet de la lumière envoyée, Les électrons qui gravitent autour de ces atomes vont alors être accélérés et émettre à leur tour un flash lumineux qui dure environ une attoseconde : c’est ce que l’on appelle la High harmonic generation, ou production d’harmoniques élevées. Ce sont ces impulsions qui vont prendre les électrons en photo. Pourquoi une durée aussi courte est-elle nécessaire ? Parce que les électrons ne tiennent pas en place.

Au-delà de la physique

"Faisons un parallèle avec le cinéma, explique Franck Lépine. On découpe le mouvement en un certain nombre de photos par seconde. La photo fige l’objet qui bouge, mais si la capture prend trop de temps, on découpe le mouvement, les images se superposent", ce qui crée un effet de flou. "Si jamais nos flashes de lumières durent trop longtemps, on ne va pas voir seulement électrons bouger, mais également les atomes, voire les ensembles d’atomes", et donc l’objet de l’observation ne sera pas net.

Les découvertes des trosi chercheurs ne permettent pas seulement d’observer les électrons avec une précision nouvelle. Elles sont également un instrument pour les manipuler. La lumière envoyée sur les électrons les bouscule, et là encore la physique attoseconde peut tout changer, et pas seulement dans le domaine des sciences fondamentales. "On peut manipuler les réactions chimiques en manipulant les électrons", détaille Franck Lépine.

À Lyon, son laboratoire est l’un des trois en France à disposer des équipements nécessaires pour travailler avec la physique attoseconde. "Parmi les choses sur lesquelles on travaille, il y a l’utilisation des technologies attoseconde pour comprendre comment fonctionne l’ADN du vivant." La physique attoseconde, vous n’en entendrez peut-être pas parler à nouveau de sitôt, mais les découvertes qui en découlent certainement.

Historique

En 1925, Werner Heisenberg, pionniers de la mécanique quantique, a affirmé que le temps nécessaire à un électron pour faire le tour d'un atome d'hydrogène était inobservable. Dans un sens, il avait raison. Les électrons ne tournent pas autour d'un noyau atomique comme les planètes autour des étoiles. Les physiciens les considèrent plutôt comme des ondes de probabilité qui donnent leurs chances d'être observées à un certain endroit et à un certain moment, de sorte que nous ne pouvons pas mesurer un électron qui vole littéralement dans l'espace.

Heisenberg a sous-estimé l'ingéniosité de physiciens du XXe siècle comme L'Huillier, Agostini et Krausz. Les chances que l'électron soit ici ou là varient d'un moment à l'autre, d'une attoseconde à l'autre. Grâce à la possibilité de créer des impulsions laser attosecondes capables d'interagir avec les électrons au fur et à mesure de leur évolution, les chercheurs peuvent sonder directement les différents comportements des électrons.

Comment les physiciens produisent-ils des impulsions attosecondes ?

Dans les années 1980, Ahmed Zewail, de l'Institut de technologie de Californie, a développé la capacité de faire clignoter des lasers avec des impulsions d'une durée de quelques femtosecondes, soit des milliers d'attosecondes. Ces impulsions, qui ont valu à Zewail le prix Nobel de chimie en 1999, étaient suffisantes pour permettre aux chercheurs d'étudier le déroulement des réactions chimiques entre les atomes dans les molécules. Cette avancée a été qualifiée de "caméra la plus rapide du monde".

Pendant un certain temps, une caméra plus rapide semblait inaccessible. On ne savait pas comment faire osciller la lumière plus rapidement. Mais en 1987, Anne L'Huillier et ses collaborateurs ont fait une observation intrigante : Si vous éclairez certains gaz, leurs atomes sont excités et réémettent des couleurs de lumière supplémentaires qui oscillent plusieurs fois plus vite que le laser d'origine - un effet connu sous le nom d'"harmoniques". Le groupe de L'Huillier a découvert que dans des gaz comme l'argon, certaines de ces couleurs supplémentaires apparaissaient plus brillantes que d'autres, mais selon un schéma inattendu. Au début, les physiciens ne savaient pas trop quoi penser de ce phénomène.

Au début des années 1990, L'Huillier et d'autres chercheurs ont utilisé la mécanique quantique pour calculer les différentes intensités des diverses harmoniques. Ils ont alors pu prédire exactement comment, lorsqu'un laser infrarouge oscillant lentement frappait un nuage d'atomes, ces atomes émettaient à leur tour des faisceaux de lumière "ultraviolette extrême" oscillant rapidement. Une fois qu'ils ont compris à quelles harmoniques il fallait s'attendre, ils ont trouvé des moyens de les superposer de manière à obtenir une nouvelle vague : une vague dont les pics s'élèvent à l'échelle de l'attoseconde. Amener des collectifs géants d'atomes à produire ces ondes finement réglées de concert est un processus que Larsson compare à un orchestre produisant de la musique.

 Au cours des années suivantes, les physiciens ont exploité cette compréhension détaillée des harmoniques pour créer des impulsions attosecondes en laboratoire. Agostini et son groupe ont mis au point une technique appelée Rabbit, ou "reconstruction d'un battement attoseconde par interférence de transitions à deux photons". Grâce à Rabbit, le groupe d'Agostini a généré en 2001 une série d'impulsions laser d'une durée de 250 attosecondes chacune. La même année, le groupe de Krausz a utilisé une méthode légèrement différente, connue sous le nom de streaking, pour produire et étudier des salves individuelles d'une durée de 650 attosecondes chacune. En 2003, L'Huillier et ses collègues les ont tous deux surpassés avec une impulsion laser d'une durée de 170 attosecondes seulement.

Que peut-on faire avec des impulsions attosecondes ?

Les impulsions attosecondes permettent aux physiciens de détecter tout ce qui change sur une période de quelques dizaines à quelques centaines d'attosecondes. La première application a consisté à essayer ce que les physiciens avaient longtemps cru impossible (ou du moins extrêmement improbable) : voir exactement ce que font les électrons.

En 1905, Albert Einstein a donné le coup d'envoi de la mécanique quantique en expliquant l'effet photoélectrique, qui consiste à projeter des électrons dans l'air en éclairant une plaque métallique (sa théorie lui vaudra plus tard le prix Nobel de physique en 1921). Avant l'ère de la physique des attosecondes, les physiciens supposaient généralement que la chaîne de réactions qui conduisait à la libération des électrons lancés était instantanée.

En 2010, Krausz et ses collègues ont démontré le contraire. Ils ont utilisé des impulsions attosecondes pour chronométrer les électrons détachés des atomes de néon. Ils ont notamment constaté qu'un électron dans un état de basse énergie fuyait son hôte 21 attosecondes plus vite qu'un électron dans un état de haute énergie. En 2020, un autre groupe a montré que les électrons s'échappent de l'eau liquide des dizaines d'attosecondes plus rapidement que de la vapeur d'eau.

D'autres applications des impulsions attosecondes sont en cours de développement. La technique pourrait permettre de sonder toute une série de phénomènes liés aux électrons, notamment la façon dont les particules portent et bloquent la charge électrique, la façon dont les électrons rebondissent les uns sur les autres et la façon dont les électrons se comportent collectivement. Krausz fait également briller des flashs attosecondes sur du sang humain. L'année dernière, il a contribué à montrer que de minuscules changements dans un échantillon de sang peuvent indiquer si une personne est atteinte d'un cancer à un stade précoce, et de quel type.

Plus tôt dans la matinée, le comité Nobel a eu du mal à joindre Mme L'Huillier pour l'informer qu'elle était la cinquième femme de l'histoire à recevoir le prix Nobel de physique. Lorsqu'il a finalement réussi à la joindre, après trois ou quatre appels manqués, elle était en train de donner une conférence à ses étudiants. Elle est parvenue à la terminer, même si la dernière demi-heure a été très difficile. "J'étais un peu émue à ce moment", a-t-elle déclaré plus tard.

Auteur: Internet

Info: huffingtonpost et quantamagazine, 3 sept. 2023

[ nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

mental aveugle

Aphantasie - Hors de la vue, hors de l'esprit.

Fermez les yeux et imaginez que vous regardez la maison de votre enfance depuis la rue. Si vous pouvez en voir une représentation visuelle avec une certaine fidélité d'esprit, vous faites partie des 98 % de personnes qui peuvent visualiser. Si, comme moi, vous ne voyez que du noir, vous faites partie des 2 % de gens atteints d'une maladie appelée Aphantasie.

Quand je ferme les yeux, il n'y a pas d'images, de formes, de couleurs, de taches, de flous, de bouts. Rien. Je n'ai jamais vu un seul mouton sauter par-dessus une clôture. Toute ma vie, j'ai pensé que lorsque les gens disaient qu'ils pouvaient penser en images et visualiser des images, c'était métaphorique.

En tant que designer, c'est une révélation. Personnellement, ça change vraiment la donne.

Plutôt que de penser que je n'en avais pas la capacité, j'ai toujours supposé que personne ne voyait vraiment les moutons, ils pensaient juste à eux comme moi. Je me rappelle combien il était ridicule d'essayer de compter les moutons que je ne voyais pas.

L'apprentissage de l'aphantasie (un nouveau "machin" qui n'a pas encore d'entrée dans le dictionnaire) m'a obligé à me demander quels sont mes processus internes et comment je peux obtenir à peu près les mêmes résultats que quelqu'un qui peut visualiser. Tant de choses ont un sens maintenant, mais il y en a encore tant à comprendre. Avant d'entrer dans les détails, voici quelques symptômes de ce syndrome : 

-  Il n'y a aucun souvenir visuel pour quoi que ce soit, que ce soit un visage, un mot, l'endroit où j'ai laissé mes clés, un beau moment, l'enfance.

- Tout comme le passé ne peut être rappelé, je ne peux pas visualiser les événements futurs. Toutes ces techniques de visualisation du développement personnel que j'ai essayées au fil des ans et que je croyais inutiles...

- Il n'y a pas d'endroit agréable où aller. Quand on souffre, c'est un peu comme dans la scène de Chemical Burn du Fight Club, il faut juste rester avec la douleur. 

- Je rêve en images mais jamais avec une quelconque clarté. Même quand je me souviens des rêves, je ne peux pas me les remémorer. Je ne sais pas si la fidélité de mes rêves correspond à celle de quelqu'un qui n'a pas ma condition.

- Quand je rêve le jour, j'imagine des scénarios dans des détails abstraits et des nuages de pensées, ce qui est très difficile à comprendre et encore moins à expliquer.

- Les histoires fictives sont inutiles et n'ont aucun lien viscéral. Même enfant, je n'ai jamais pu me plonger dans des aventures de fiction. Je n'aurais pas été bon à l'école du dimanche.

- C'est une bénédiction de ne pas avoir de flashbacks d'événements traumatisants, mais ;

- C'est une malédiction de ne pas pouvoir évoquer des images d'êtres chers disparus. 

Il y a une myriade d'exemples qui peuvent être ajoutés à cette liste, mais vous avez compris. Mes paupières se ferment et le monde devient noir, ce qui m'a toujours semblé logique - c'est à cela que servent les paupières. Voir des images lorsque les yeux sont fermés ressemble à un super pouvoir qui devrait être pour une minorité exceptionnelle, et non l'inverse.

La voix de l'esprit

Depuis cette découverte, j'ai pu mettre certains points sur les i. Il y a quelques années, je me suis intéressé à la programmation neuro-linguistique (PNL), dont une partie consiste à comprendre les modalités sensorielles. Lorsque je me suis appliqué à moi-même ces techniques, le résultat fut que j'étais auditif. Bien sûr, étant donné que toute ma vie professionnelle avait été en tant que designer, je m'attendais à être visuel.

Alors comment une personne atteinte d'aphantasie peut-elle traiter des données et anticiper les résultats ? Pour moi, j'ai découvert que j'entends les résultats, mais que je ne les vois pas

Par exemple, j'ai eu un combat de boxe professionnelle il y a quelques années. J'ai toujours été en faveur du développement personnel et j'avais lu et entendu si souvent qu'il faut visualiser un résultat réussi que l'on veut atteindre. En l'occurrence, me voir victorieux avec les mains levées et sortir du ring en vainqueur. Rétrospectivement, je n'ai jamais rien vu, mais j'ai tout entendu.

En visualisant le combat, j'écoutais vraiment la foule, j'entendais mes entraîneurs me dire à quel point je m'en sortais bien entre les rounds, et surtout j'écoutais mes propres commentaires et affirmations internes pendant que je jouais mentalement l'événement. Lorsque je visualisais la victoire, je ne voyais rien, mais j'entendais ma propre voix mentale célébrer la victoire.

Oreilles visuelles

La mémoire et la capacité à se souvenir d'un moment, d'un événement ou d'une action sont cruciales. Lorsque quelqu'un d'autre a égaré ses clés, il peut voir où il les a laissées comme un souvenir à rappeler. Pour ce faire, je me souviens de ma voix mentale qui disait à l'époque " tes clés sont sur le bureau " lorsque je les y pose. Et quand j'ai besoin de les retrouver, je reviens à la dernière phrase de mes clés. Les fragments de langage sont un moyen de cloisonner les actions que j'ai prises et celles que je dois prendre.

Si j'assiste à un magnifique coucher de soleil, je ne puis en capturer un instantané mental, c'est plutôt comme un extrait sonore, et c'est surtout mon bavardage interne qui essaie d'enregistrer le moment et de le verbaliser via les détails. Je suis à la limite de l'obsession des couchers de soleil, ce qui frustre tous ceux avec qui je suis si l'un d'entre eux se trouve à proximité, car je dois me rendre à un point d'observation. "On les a tous vus..." mais comme je ne m'en souviens pas, j'ai besoin de les voir encore et encore.

Je suis un fervent iPhoneographe, ce qui n'est pas unique, mais pour moi, c'est une façon de gérer mon incapacité à capturer des images mentales. Lorsque je pars en voyage avec un partenaire, c'est inévitablement frustrant pour lui, car je dois m'arrêter si souvent pour saisir les moments. "Pourquoi ne pouvez-vous pas simplement profiter de l'instant présent ?", ce que je fais, mais si je ne le capture pas, je ne pourrai généralement plus jamais revoir cet endroit. Si je conduis et qu'une scène qui vaut la peine d'être capturée apparaît, ce ne sont pas mes yeux qui m'encouragent à m'arrêter, j'entends "Ce serait une super photo", alors j'ai appris à faire confiance à ma voix au-dessus de mes yeux, même pour les choses visuelles, et j'ai une vision de 20/20.

Le dilemme du designer

Je suis un designer qui est intrinsèquement visuel. J'ai commencé dans le design visuel et j'ai évolué vers le design de l'expérience utilisateur qui, je crois maintenant, est un artefact d'Aphantasia. Lorsque je parle à mes collègues designers, je n'arrive pas à croire qu'ils voient dans leur esprit à l'avance ce qu'ils exécutent ensuite dans Photoshop. Ils disposent d'un canevas mental sur lequel ils peuvent appliquer leurs visualisations. Cela va dans le sens de l'hyperphantasie.

Un collègue peut voir 20 versions du même graphique et être capable de les filtrer dans sa tête pour créer les 5 versions qu'il fera physiquement comme options de révision. Un autre collègue peut évoquer une seule instance d'un graphique mais être capable d'animer et de déplacer les éléments jusqu'à ce qu'il se arrête  la version qu'il va concevoir.

Mais la question est, que fait un Aphantasique ?.

Lorsque j'essaie de résoudre un problème d' expérience-design, je pense que c'est la réalité. Ce n'est pas une bonne description car il n'y a pas de vraie bonne manière d'articuler ce processus. Mais je le verbalise aussi en interne, et cela se fait en grande partie en jouant le rôle de l'utilisateur et en écoutant ce qu'il entendrait de son propre bavardage interne s'il faisait l'expérience du voyage que j'essaie de résoudre pour lui. Par exemple, s'ils rencontrent un problème pendant que je joue leur expérience de la conception, je les entends dire "ça ne marche pas" mais je ne vois pas comment, je dois le traduire de mon point de vue de concepteur puis le manifester à l'écran, sur papier ou autre.

J'ai toujours été un bon collaborateur dans le domaine du design, parce que j'ai eu besoin de l'être. Très souvent, les solutions aux problèmes viennent de moi, qui en parle et qui peint une image mentale d'un problème de ce que je "vois" pendant qu'un collègue crée cette image mentale et qu'ensemble, cela devient une solution. Une véritable conception collaborative, où le partage des connaissances conduit à une compréhension collective et à la résolution des problèmes.

Imagine que

On m'a interrogé sur mon imagination ? Je suis un vrai rêveur, mais une fois "hors fèeries", je ne suis pas vraiment sûr de ce qui se passe. C'est la chose la plus difficile à expliquer parce que je ne peux pas encore vraiment expliquer ce qui se passe quand je suis "loin". La meilleure description est que je sens les choses se passer dans ma tête. Les événements se déroulent et je ne suis pas mentalement vide, mais visuellement noir. Tout cela est assez étrange. Je ressens toujours les rêves comme des images, il semble donc que le conscient ait un filtre sur ce que l'inconscient peut faire passer en douce pendant le sommeil.

Bénédiction ou malédiction

L'un des aspects les plus troublants est de ne pas pouvoir voir ses proches. Mon frère a récemment quitté ce monde et malgré tous mes efforts, je ne puis voir son visage. Je ne peux même pas visualiser une photo de son visage, ou une représentation floue. Depuis, j'en ai parlé à ma mère, qui se couche tous les soirs avec une ou plusieurs photos de lui et peut s'en servir pour se souvenir de lui.

Je peux avoir un sentiment pour une personne et je peux décrire mon frère à quelqu'un. La façon dont il marchait par exemple, je peux la reproduire, mais c'est de mémoire. Parfois, je me sense dissonant au plan émotionnel, comme en vivant un  événement traumatisant comme une rupture. J'ai l'impression d'avancer rapidement et je me demande maintenant si c'est un cas de "loin des yeux, loin du cœur". Cette citation aide à résumer beaucoup de choses pour moi et mon expérience du monde.

Un avantage, cependant, est que les expériences négatives ne peuvent pas être revécues. Des images visuelles horribles, comme un récent accident de moto, ne reviennent jamais nous hanter. Une fois la chose vue, elle est automatiquement invisible.

Voir, c'est croire

Il existe de nombreux exemples de personnes dont un sens est diminué ou inexistant, ce qui encourage d'autres à se renforcer. Le savant qui pense aux nombres comme à des images et qui peut résoudre des équations mathématiques par l'image. Je n'ai pas encore appris exactement comment traiter et traduire l'information, mais je suis maintenant sur cette voie pour comprendre comment je fonctionne et pour développer cette capacité, tout en travaillant à supprimer le filtre et à ouvrir un tout nouveau monde à l'œil de l'esprit.

Auteur: Kappler Benny

Info: 9 janvier 2017. https://medium.com/@bennykappler/aphantasia-out-of-sight-out-of-mind-f2b1b4e5cc23. Trad Mg

[ imagination non-voyante ]

 

Commentaires: 0

Ajouté à la BD par miguel

exobiologie

Les extraterrestres sont-ils là sous nos yeux ?

Difficile de détecter quelque chose sans avoir aucune idée de ce que c'est.

Cette année, plusieurs missions sont en quête de vie sur la planète rouge. Mais reconnaîtrions-nous des extraterrestres si nous les trouvions ? En juillet, trois missions non habitées se sont envolées vers Mars : de Chine (Tianwen-1), depuis les États-Unis (Mars 2020 Perseverance Rover de la Nasa) et des Émirats arabes unis (Hope). Les missions chinoise et américaine sont équipées d'atterrisseurs qui rechercheront des signes de vie actuelle ou passée sur Mars. La Nasa prévoit également d'envoyer sa sonde Europa Clipper sur la lune de Jupiter, Europa, et l'atterrisseur robotisé Dragonfly sur la lune de Saturne, Titan. Ces deux lunes sont considérées comme des terrains de chasse prometteurs pour la vie dans notre système solaire, tout comme les océans souterrains d'Encelade, la lune glacée de Saturne.

En attendant, nous pouvons désormais entrevoir la composition chimique des atmosphères des planètes qui orbitent autour d'autres étoiles (exoplanètes), dont plus de 4 000 sont aujourd'hui connues. Certains espèrent que ces études pourraient révéler d'éventuelles signatures de vie.

Mais ces recherches peuvent-elles être efficaces si nous n'avons pas une idée claire de ce qu'est la "vie" ? La définition officieuse de la Nasa est la suivante : "système chimique autonome capable d'évolution darwinienne". "La Nasa a besoin d'une définition de la vie pour savoir comment construire des détecteurs et quels types d'instruments utiliser lors de ses missions", explique le zoologiste Arik Kershenbaum, de l'université de Cambridge. Mais tout le monde ne pense pas qu'elle utilise la bonne définition.

L'astrobiologiste Lynn Rothschild, du centre de recherche Ames de la Nasa en Californie, voit une mise en garde dans l'histoire de Winnie l'ourson d'AA Milne, dans laquelle Pooh et Piglet chassent un Woozle sans savoir à quoi il ressemble et confondent leurs propres empreintes avec ses traces. "On ne peut chasser quelque chose sans avoir aucune idée de ce que c'est", dit-elle.

Le problème de la définition de la vie hante les planétologues depuis que les deux atterrisseurs Viking de la Nasa se sont posés sur Mars en 1976. Depuis, les rovers ont parcouru des dizaines de kilomètres sur les plaines martiennes mais n'ont trouvé aucun signe de vie. Mais saurions-nous la reconnaître si nous la voyions ?

Certains astrobiologistes - scientifiques qui étudient la possibilité de vie sur d'autres mondes - pensent que notre vision est trop étroite. Nous ne connaissons qu'un seul type de vie : la vie terrestre. Tous les êtres vivants sur Terre sont constitués de cellules adaptées à un environnement aquatique, utilisant une machinerie moléculaire construite à partir de protéines et codée sous forme de gènes dans l'ADN. Peu de scientifiques pensent que la vie extraterrestre - si tant est qu'elle existe - repose sur les mêmes éléments chimiques. "Il serait erroné de supposer que la biochimie qui nous est familière est celle que nous allons trouver sur d'autres planètes", déclare Kershenbaum. La surface de Titan, par exemple, est trop froide (moins 179 °C) pour contenir de l'eau liquide, mais la mission de l'atterrisseur Huygens en 2005 a révélé la présence de lacs d'un autre type, constitués d'hydrocarbures comme ceux de l'essence, principalement du méthane et de l'éthane.

Rothschild pense que les règles universelles de la chimie réduisent certaines des options. "J'ai du mal à imaginer une autre forme de vie qui ne soit pas basée sur le carbone", dit-elle. Il est donc logique de concevoir les missions planétaires de recherche de la vie en gardant cela à l'esprit. L'eau présente également "une tonne d'avantages" en tant que solvant de la vie. Même si des réactions chimiques intéressantes se produisaient dans les lacs de méthane de Titan, elles seraient fortement ralenties par les températures glaciales. La vie pourrait-elle se dérouler à un rythme aussi glacial ? Le planétologue Stuart Bartlett, de l'Institut de technologie de Californie à Pasadena, garde l'esprit ouvert. "Il pourrait y avoir des organismes flottant dans l'atmosphère de Titan qui boivent essentiellement de l'essence pour se maintenir", dit-il.

On a longtemps pensé que toute entité méritant d'être qualifiée de vivante possède des attributs qui ne dépendent pas de sa composition chimique précise. Il est toutefois très difficile de définir ces qualités générales. Les systèmes vivants - même les bactéries - sont extrêmement complexes, maintenus par des informations qui passent (dans notre cas via les gènes) entre les générations et créent une organisation. Mais il ne s'agit pas de l'ordre froid et mort des cristaux, où les atomes sont empilés selon des motifs réguliers. Il s'agit plutôt de l'ordre dynamique d'une ville ou d'une formation nuageuse, que les scientifiques qualifient de "déséquilibré" : il est constamment alimenté en énergie et ne s'installe pas dans un état statique.

Bartlett et Wong proposent une catégorie plus large appelée "lyfe", dont la vie telle que nous la connaissons n'est qu'une variante.

Lorsque James Lovelock, aujourd'hui connu pour l'hypothèse Gaia qui propose que notre planète entière soit assimilée à une entité vivante, participa à la conception des atterrisseurs Viking dans les années 1970, il suggéra de rechercher un tel déséquilibre chimique dans l'environnement - que seule la vie pourrait éventuellement maintenir sur des échelles de temps géologiques. Il s'agit plutôt de l'ordre dynamique d'une ville ou d'une formation nuageuse, que les scientifiques qualifient de "déséquilibré" : Les deux étant constamment alimentés en énergie et ne s'installent pas dans un état statique.  Mais des états de "déséquilibre ordonné" peuvent également être trouvés dans des systèmes non vivants, comme des liquides fluides, de sorte que ce seul critère ne permet pas d'identifier la vie.

Bartlett, en collaboration avec l'astrobiologiste Michael Wong de l'Université de Washington à Seattle, soutient que nous devons échapper au carcan de la pensée terrestre sur la vie. Ils proposent d'introduire une catégorie plus large appelée "lyfe" (prononcé, d'une façon étrangement typique du West Country, comme "loif"), dont la vie telle que nous la connaissons n'est qu'une variation. "Notre proposition tente de se libérer de certains des préjugés potentiels dus au fait que nous faisons partie de cette seule instanciation de lyfe", explique Bartlett. Ils suggèrent quatre critères pour la lyfe :

1. Elle puise dans les sources d'énergie de son environnement qui l'empêchent de devenir uniforme et immuable.

2. Elle connaît une croissance exponentielle (par exemple par réplication).

3. Elle peut se réguler pour rester stable dans un environnement changeant.

4. Elle apprend et se souvient des informations sur cet environnement. L'évolution darwinienne est un exemple de cet apprentissage sur des échelles de temps très longues : les gènes préservent les adaptations utiles à des circonstances particulières.

Les deux chercheurs affirment qu'il existe des systèmes "sublyfe" qui ne répondent qu'à certains de ces critères, et peut-être aussi des "superlyfe" qui en remplissent d'autres : des formes lyfe qui ont des capacités supérieures aux nôtres et qui pourraient nous regarder comme nous regardons des processus complexes mais non vivants tels que la croissance des cristaux.

"Nous espérons cette définition libère suffisamment notre imagination pour que nous ne passions pas à côté de formes de lyfe qui pourraient se cacher à la vue de tous", déclare Bartlett. Lui et Wong suggèrent que certains organismes lytiques pourraient utiliser des sources d'énergie inexploitées ici sur Terre, comme les champs magnétiques ou l'énergie cinétique, l'énergie du mouvement. "Il n'existe aucune forme de vie connue qui exploite directement l'énergie cinétique dans son métabolisme", déclare Bartlett.

Selon eux, il pourrait y avoir d'autres moyens de stocker des informations que dans des brins génétiques comme l'ADN. Les scientifiques ont, par exemple, déjà imaginé des moyens artificiels de stocker et de traiter l'information en utilisant des réseaux bidimensionnels de molécules synthétiques, comme des réseaux en damier ou des abaques. Selon Bartlett, la distinction entre "alyfe" et "non-lyfe" pourrait être floue : être "alyve" pourrait être une question de degré. Après tout, les scientifiques se disputent déjà sur la question de savoir si les virus peuvent être considérés comme tels, même si personne ne doute de leur capacité à détruire la vie.

Il est sceptique quant à la notion de la définition de travail de la Nasa selon laquelle la vie ne peut apparaître et se développer que par l'évolution darwinienne. Il affirme que même les organismes terrestres peuvent façonner leur comportement d'une manière qui ne dépend pas d'un mécanisme Darwinien, à savoir des mutations aléatoires couplées à une compétition pour les ressources qui sélectionne les mutations avantageuses. "L'évolution darwinienne existe bien sûr, mais je pense qu'elle doit être complétée par une vision plus large de l'apprentissage biologique", déclare-t-il.

L'astrobiologiste et physicienne Sara Walker, de l'Arizona State University, partage cet avis. "Il se peut que certains systèmes possèdent de nombreux attributs de la vie mais ne franchissent jamais le seuil de la vie darwinienne", dit-elle. Mais dans son nouveau livre The Zoologist's Guide to the Galaxy, Kershenbaum affirme qu'il est difficile d'imaginer un autre processus susceptible de produire des systèmes chimiques complexes dignes d'être considérés comme vivants (ou alyves). L'évolution par sélection naturelle, dit-il, suit "des principes bien définis dont nous savons qu'ils s'appliqueront non seulement sur Terre mais aussi ailleurs dans l'univers" - et il est "très confiant dans le fait qu'elle sera à l'origine de la diversité de la vie sur les planètes extraterrestres". Si c'est le cas, affirme-t-il, nous pouvons faire des hypothèses raisonnables sur d'autres attributs de ces planètes : par exemple, la vie aura un processus comme la photosynthèse pour récolter l'énergie de l'étoile mère.

Bartlett et Wong se demandent également si les choses vivantes doivent avoir des frontières physiques bien définies.

Après tout, alors que nous pourrions imaginer n'être que tout ce qui se trouve à l'intérieur de notre peau, nous dépendons d'autres organismes en nous : le micro-biote des bactéries dans nos intestins par exemple. Et certains philosophes soutiennent que notre esprit s'étend au-delà de notre cerveau et de notre corps, par exemple dans nos appareils technologiques. "Nous pensons que la vie est un processus qui se déroule probablement à l'échelle de planètes entières", déclare Bartlett. Walker convient que "la seule limite naturelle des processus vivants est la planète", ce qui rappelle l'hypothèse Gaia de Lovelock.

Mais en l'absence d'une limite pour les ingrédients moléculaires, dit Rothschild, tous les composants d'un système vivant se dilueraient dans son environnement, comme des gouttelettes d'encre dans l'eau. Et Kershenbaum affirme que des organismes distincts et délimités sont nécessaires si l'évolution est darwinienne, car ce n'est qu'alors qu'il y a quelque chose d'autre à concurrencer.

Walker pense qu'en fait Bartlett et Wong ne vont pas assez loin dans leur tentative de libérer les idées quant à une vie terracentrique. Leur notion de lyfe, dit-elle, "fait table rase de bon nombre des problèmes omniprésents dans les définitions actuelles de la vie en proposant une définition plus large basée sur les définitions existantes. Les problèmes de base restent les mêmes. Nous n'avons pas besoin de nouvelles définitions de la vie. Ce dont nous avons besoin, c'est de nouvelles théories qui s'attaquent aux principes sous-jacents qui régissent la physique du vivant dans notre univers."

Une autre possibilité d'élargir notre vision de ce que pourrait être la vie est que nous devenions capables de créer de toutes pièces, en laboratoire, des systèmes vivants totalement différents de ceux que nous connaissons. "Nous en sommes beaucoup plus proches que vous ne le pensez", déclare M. Rothschild. En fait, cela s'est peut-être déjà produit et nous ne nous en sommes pas rendu compte, ajoute-t-elle, en plaisantant à moitié. Si nous ne savons pas ce que nous cherchons, un chercheur a peut-être déjà créé une nouvelle forme de vie - et l'a jetée dans l'évier.

En fin de compte, nous ne devrions peut-être pas être trop sûrs que la vie corresponde à une quelconque définition naturelle, estime M. Rothschild. "Je crois que ce que nous avons actuellement, ce sont des définitions non naturelles de la vie, parce que nous n'avons qu'un seul point de données. Je me demande si la vie n'est pas simplement ce que nous définissons."

"Nous pourrions découvrir des systèmes si bizarres et inattendus qu'il serait ompossible de décider s'ils sont vivants ou non", dit Kershenbaum. "Mais si nous découvrons quelque chose de vraiment intéressant et complexe qui ne correspond pas tout à fait à la définition de la vie, cela restera une avancée passionnante. Nous n'allons pas l'ignorer parce que ça ne correspond pas à notre définition !"

Auteur: Ball Philip

Info: The Guardian, 5 Septembre 2020 - Are aliens hiding in plain sight?

[ dépassement conceptuel ] [ spéculations ] [ changement de paradigme ] [ révolution scientifique ] [ monade planétaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

civilisation

Pour expliquer les États-Unis d'Amérique, on les a comparés, avec raison, à un creuset. L'Amérique est en effet un de ces cas où, à partir d'une matière première on ne peut plus hétérogène, a pris naissance un type d'homme dont les caractéristiques sont, dans une large mesure, uniformes et constantes. Des hommes des peuples les plus divers reçoivent donc, en s'installant en Amérique, la même empreinte. Presque toujours, après deux générations, ils perdent leurs caractéristiques originelles et reproduisent un type assez unitaire pour ce qui est de la mentalité, de la sensibilité et des modes de comportement : le type américain justement.

Mais, dans ce cas précis, des théories comme celles formulées par Frobenius et Spengler – il y a aurait une étroite relation entre les formes d'une civilisation et une sorte d' "âme" liée au milieu naturel, au "paysage" et à la population originelle – ne semblent pas pertinentes. S'il en était ainsi, en Amérique l'élément constitué par les Amérindiens, par les Peaux-Rouges, aurait dû jouer un rôle important. Les Peaux-Rouges étaient une race fière, possédant style, dignité, sensibilité et religiosité ; ce n'est pas sans raison qu'un auteur traditionaliste, F. Schuon, a parlé de la présence en eux de quelque chose "d'aquilin et de solaire". Et nous n'hésitons pas à affirmer que si leur esprit avait marqué, sous ses meilleurs aspects et sur un plan adéquat, la matière mélangée dans le "creuset américain", le niveau de la civilisation américaine aurait été probablement plus élevé. Mais, abstraction faite de la composante puritaine et protestante (qui se ressent à son tour, en raison de l'insistance fétichiste sur l'Ancien Testament, d'influences judaïsantes négatives), il semble que ce soit l'élément noir, avec son primitivisme, qui ait donné le ton à bien des traits décisifs de la mentalité américaine.

Une première chose est, à elle seule, caractéristique : quand on parle de folklore en Amérique, c'est aux Noirs qu'on pense, comme s'ils avaient été les premiers habitants du pays. Si bien qu'on traite, aux États-Unis, comme un oeuvre classique inspirée du "folklore américain", le fameux Porgy and Bess du musicien d'origine juive Gershwin, oeuvre qui ne parle que des Noirs. Cet auteur déclara d'ailleurs que, pour écrire son oeuvre, il se plongea pendant un certain temps dans l'ambiance des Noirs américains. Le phénomène représenté par la musique légère et la danse est encore plus frappant. On ne peut pas donner tort à Fitzgerald, qui a dit que, sous un de ses principaux aspects, la civilisation américaine peut être appelée une civilisation du jazz, ce qui veut dire d'une musique et d'une danse d'origine noire ou négrifiée. Dans ce domaine, des "affinités électives" très singulières ont amené l'Amérique, tout au long d'un processus de régression et de retour au primitif, à s'inspirer justement des Noirs, comme si elle n'avait pas pu trouver, dans son désir compréhensible de création de rythmes et de formes frénétiques en mesure de compenser le côté desséché de la civilisation mécanique et matérielle moderne, rien de mieux. Alors que de nombreuses sources européennes s'offraient à elle - nous avons déjà fait allusion, en une autre occasion, aux rythmes de danse de l'Europe balkanique, qui ont vraiment quelque chose de dionysiaque. Mais l'Amérique a choisi les Noirs et les rythmes afro-cubains, et la contagion, à partir d'elle, a gagné peu à peu les autres pays.

Le psychanalyste C.-G. Jung avait déjà remarqué la composante noire du psychisme américain. Certaines de ses observations méritent d'être reproduites ici : "Ce qui m'étonna beaucoup, chez les Américains, ce fut la grande influence du Noir. Influence psychologique, car je ne veux pas parler de certains mélanges de sang. Les expressions émotives de l'Américain et, en premier lieu, sa façon de rire, on peut les étudier fort bien dans les suppléments des journaux américains consacrés au society gossip. Cette façon inimitable de rire, de rire à la Roosevelt, est visible chez le Noir américain sous sa forme originelle. Cette manière caractéristique de marcher, avec les articulations relâchées ou en balançant des hanches, qu'on remarque souvent chez les Américains, vient des Noirs. La musique américaine doit aux Noirs l'essentiel de son inspiration. Les danses américaines sont des danses de Noirs. Les manifestations du sentiment religieux, les revival meetings, les holy rollers et d'autres phénomènes américains anormaux sont grandement influencés par le Noir. Le tempérament extrêmement vif en général, qui s'exprime non seulement dans un jeu comme le base ball, mais aussi, et en particulier, dans l'expression verbale – le flux continu, illimité, de bavardages, typique des journaux américains, en est un exemple remarquable –, ne provient certainement pas des ancêtres d'origine germanique, mais ressemble au chattering de village nègre. L'absence presque totale d'intimité et la vie collective qui contient tout rappellent, en Amérique, la vie primitive des cabanes ouvertes où règne une promiscuité complète entre les membres de la tribu".

Poursuivant des observations de ce genre, Jung a fini par se demander si les habitants du nouveau continent peuvent encore être considérés comme des Européens. Mais ses remarques doivent être prolongées. Cette brutalité, qui est un des traits évidents de l'Américain, on peut dire qu'elle possède une empreinte noire. D'une manière générale, le goût de la brutalité fait désormais partie de la mentalité américaine. II est exact que le sport le plus brutal, la boxe, est né en Angleterre ; mais il est tout aussi exact que c'est aux États-Unis qu'il a connu les développements les plus aberrants au point de faire l'objet d'un véritable fanatisme collectif, bien vite transmis aux autres peuples. En ce qui concerne la tendance à en venir aux mains de la façon la plus sauvage qui soit, il suffit d'ailleurs de songer à une quantité de films américains et à l'essentiel de la littérature populaire américaine, la littérature "policière" : les coups de poing y sont monnaie courante, parce qu'ils répondent évidemment aux goûts des spectateurs et des lecteurs d'outre-Atlantique, pour lesquels la brutalité semble être la marque de la vraie virilité. La nation-guide américaine a depuis longtemps relégué, plus que toute autre, parmi les ridicules antiquailles européennes, la manière de régler un différend par les voies du droit, en suivant des normes rigoureuses, sans recourir à la force brute et primitive du bras et du poing, manière qui pouvait correspondre au duel traditionnel. On ne peut que souligner l'abîme séparant ce trait de la mentalité américaine de ce que fut l'idéal de comportement du gentleman anglais, et ce, bien que les Anglais aient été une composante de la population blanche originelle des États-Unis. On peut comparer l'homme occidental moderne, qui est dans une large mesure un type humain régressif, à un crustacé : il est d'autant plus "dur" dans son comportement extérieur d'homme d'action, d'entrepreneur sans scrupules, qu'il est "mou" et inconsistant sur le plan de l'intériorité. Or, cela est éminemment vrai de l'Américain, en tant qu'il incarne le type occidental dévié jusqu'à l'extrême limite.

On rencontre ici une autre affinité avec le Noir. Un sentimentalisme fade, un pathos banal, notamment dans les relations sentimentales, rapprochent bien plus l'Américain du Noir que de l'Européen vraiment civilisé. L'observateur peut à ce sujet tirer aisément les preuves irréfutables à partir de nombreux romans américains typiques, à partir aussi des chansons, du cinéma et de la vie privée courante. Que l'érotisme de l'Américain soit aussi pandémique que techniquement primitif, c'est une chose qu'ont déplorée aussi et surtout des jeunes filles et des femmes américaines. Ce qui ramène une fois de plus aux races noires, chez lesquelles l'importance, parfois obsessionnelle, qu'ont toujours eu l'érotisme et la sexualité, s'associe, justement, à un primitivisme ; ces races, à la différence des Orientaux, du monde occidental antique et d'autres peuples encore, n'ont jamais connu un ars amatoria digne de ce nom. Les grands exploits sexuels, si vantés, des Noirs, n'ont en réalité qu'un grossier caractère quantitatif et priapique.

Un autre aspect typique du primitivisme américain concerne l'idée de "grandeur". Werner Sombart a parfaitement vu la chose en disant : they mistake bigness for greatness, phrase qu'on pourrait traduire ainsi : ils prennent la grandeur matérielle pour la vraie grandeur, pour la grandeur spirituelle. Or, ce trait n'est pas propre à tous les peuples de couleur en général. Par exemple, un Arabe de vieille race, un Peau-Rouge, un Extrême-Oriental ne se laissent pas trop impressionner par tout ce qui est grandeur de surface, matérielle, quantitative, y compris la grandeur liée aux machines, à la technique, à l'économie (abstraction faite, naturellement, des éléments déjà occidentalisés de ces peuples). Pour se laisser prendre par tout cela ; il fallait une race vraiment primitive et infantile comme la race noire. Il n'est donc pas exagéré de dire que le stupide orgueil des Américains pour la "grandeur" spectaculaire, pour les achievements de leur civilisation, se ressent lui aussi d'une disposition du psychisme nègre. On peut aussi parler d'une des bêtises que l'on entend souvent répéter, à savoir que les Américains seraient une "race jeune", avec pour corollaire tacite que c'est à eux qu'appartient l'avenir. Car un regard myope peut facilement confondre les traits d'une jeunesse effective avec ceux d'un infantilisme régressif. Du reste, il suffit de reprendre la conception traditionnelle pour que la perspective soit renversée. En dépit des apparences, les peuples récemment formés doivent être considérés comme les peuples les plus vieux et, éventuellement, comme des peuples crépusculaires, parce qu'ils sont venus en dernier justement, parce qu'ils sont encore plus éloignés des origines.

Cette manière de voir les choses trouve d'ailleurs une correspondance dans le monde des organismes vivants. Ceci explique la rencontre paradoxale des peuples présumés "jeunes" (au sens de peuples venus en dernier) avec des races vraiment primitives, toujours restées en dehors de la grande histoire ; cela explique le goût de ce qui est primitif et le retour à ce qui est primitif. Nous l'avons déjà fait remarquer à propos du choix fait par les Américains, à cause d'une affinité élective profonde, en faveur de la musique nègre et sub-tropicale ; mais le même phénomène est perceptible aussi dans d'autres domaines de la culture et de l'art. On peut se référer, par exemple, au culte assez récent de la négritude qu'avaient fondé en France des existentialistes, des intellectuels et des artistes "progressistes".

Une autre conclusion à tirer de tout cela, c'est que les Européens et les représentants de civilisations supérieures non européennes font preuve, à leur tour, de la même mentalité de primitif et de provincial lorsqu'ils admirent l'Amérique, lorsqu'ils se laissent impressionner par l'Amérique, lorsqu'ils s'américanisent avec stupidité et enthousiasme, croyant ainsi marcher au pas du progrès et témoigner d'un esprit "libre" et "ouvert". La marche du progrès concerne aussi l' "intégration" sociale et culturelle du Noir, qui se répand en Europe même et qui est favorisée, même en Italie, par une action sournoise, notamment au moyen de films importés (où Blancs et Noirs remplissent ensemble des fonctions sociales : juges, policiers, avocats, etc.) et par la télévision, avec des spectacles où danseuses et chanteuses noires sont mélangées à des blanches, afin que le grand public s'accoutume peu à peu à la promiscuité des races, perde tout reste de conscience raciale naturelle et tout sentiment de la distance. Le fanatisme collectif qu'a provoqué en Italie, lors de ses exhibitions, cette masse de chair informe et hurlante qu'est la Noire Ella Fitzgerald, est un signe aussi triste que révélateur. On peut en dire autant du fait que l'exaltation la plus délirante de la "culture" nègre, de la négritude, soit due à un Allemand, Janheinz Jahn, dont le livre Muntu, publié par une vieille et respectable maison d'édition allemande (donc dans le pays du racisme aryen !), a été immédiatement traduit et diffusé par un éditeur italien de gauche bien connu, Einaudi. Dans cet ouvrage invraisemblable, l'auteur en arrive à soutenir que la "culture" nègre serait un excellent moyen de relever et de régénérer la "civilisation matérielle" occidentale... Au sujet des affinités électives américaines, nous ferons allusion à un dernier point. On peut dire qu'il y a eu aux États-Unis d'Amérique quelque chose de valable, vraiment prometteur : le phénomène de cette jeune génération qui prônait une sorte d'existentialisme révolté, anarchiste, anticonformiste et nihiliste ; ce qu'on a appelé la beat generation, les beats, les hipsters et compagnie, sur lesquels nous reviendrons d'ailleurs. Or, même dans ce cas, la fraternisation avec les Noirs, l'instauration d'une véritable religion du jazz nègre, la promiscuité affichée, y compris sur le plan sexuel, avec les Noirs, ont fait partie des caractéristiques de ce mouvement.

Dans un essai célèbre, Norman Mailer, qui a été un des principaux représentants de la beat generation, avait même établi une sorte d'équivalence entre le Noir et le type humain de la génération en question ; il avait carrément appelé ce dernier the white Negro, le "nègre blanc". A ce propos, Fausto Gianfranceschi a écrit très justement : "En raison de la fascination exercée par la 'culture' nègre, sous la forme décrite par Mailer, on ne peut s'empêcher d'établir immédiatement un parallèle – irrespectueux – avec l'impression que fit le message de Friedrich Nietzsche au début du XIXe siècle. Le point de départ, c'est le même désir de rompre tout ce qui est fossilisé et conformiste par une prise de conscience brutale du donné vital et existentiel ; mais quelle confusion lorsqu'on met le Noir, comme on l'a fait de nos jours, avec le jazz et l'orgasme sexuel, sur le piédestal du "surhomme" !

Pour la bonne bouche nous terminerons par un témoignage significatif dû à un écrivain américain particulièrement intéressant, James Burnham (dans "The struggle for the world") : "On trouve dans la vie américaine les signes d'une indiscutable brutalité. Ces signes se révèlent aussi bien dans le lynchage et le gangstérisme que dans la prétention et la goujaterie des soldats et des touristes à l'étranger. Le provincialisme de la mentalité américaine s'exprime par un manque de compréhension pour tout autre peuple et toute autre culture. Il y a, chez de nombreux Américains, un mépris de rustre pour les idées, les traditions, l'histoire, un mépris lié à l'orgueil pour les petites choses dues au progrès matériel. Qui, après avoir écouté une radio américaine, ne sentira pas un frisson à la pensée que le prix de la survie serait l'américanisation du monde ?"

Ce qui, malheureusement, est déjà en train de se produire sous nos yeux.

Auteur: Evola Julius

Info: L'arc et la massue (1971, 275p.)

[ racialisme ] [ melting-pot ] [ nouveau monde ] [ désintégration ] [ ethno-différentialisme ]

 
Commentaires: 2

bio-évolution

La "tectonique" des chromosomes révèle les secrets de l'évolution des premiers animaux

De grands blocs de gènes conservés au cours de centaines de millions d'années d'évolution permettent de comprendre comment les premiers chromosomes animaux sont apparus.

De nouvelles recherches ont montré que des blocs de gènes liés peuvent conserver leur intégrité et être suivis au cours de l'évolution. Cette découverte est à la base de ce que l'on appelle la tectonique des génomes (photo).

Les chromosomes, ces faisceaux d'ADN qui se mettent en scène dans le ballet mitotique de la division cellulaire, jouent un rôle de premier plan dans la vie complexe. Mais la question de savoir comment les chromosomes sont apparus et ont évolué a longtemps été d'une difficulté décourageante. C'est dû en partie au manque d'informations génomiques au niveau des chromosomes et en partie au fait que l'on soupçonne que des siècles de changements évolutifs ont fait disparaître tout indice sur cette histoire ancienne.

Dans un article paru dans Science Advances, une équipe internationale de chercheurs dirigée par Daniel Rokhsar, professeur de sciences biologiques à l'université de Californie à Berkeley, a suivi les changements survenus dans les chromosomes il y a 800 millions d'années.  Ils ont identifié 29 grands blocs de gènes qui sont restés identifiables lors de leur passage dans trois des plus anciennes subdivisions de la vie animale multicellulaire. En utilisant ces blocs comme marqueurs, les scientifiques ont pu déterminer comment les chromosomes se sont fusionnés et recombinés au fur et à mesure que ces premiers groupes d'animaux devenaient distincts.

Les chercheurs appellent cette approche "tectonique du génome". De la même manière que les géologues utilisent leur compréhension de la tectonique des plaques pour comprendre l'apparition et le mouvement des continents, ces biologistes reconstituent comment diverses duplications, fusions et translocations génomiques ont créé les chromosomes que nous voyons aujourd'hui.

Ces travaux annoncent une nouvelle ère de la génomique comparative : Auparavant, les chercheurs étudiaient des collections de gènes de différentes lignées et décrivaient les changements une paire de bases à la fois. Aujourd'hui, grâce à la multiplication des assemblages de chromosomes, les chercheurs peuvent retracer l'évolution de chromosomes entiers jusqu'à leur origine. Ils peuvent ensuite utiliser ces informations pour faire des prédictions statistiques et tester rigoureusement des hypothèses sur la façon dont les groupes d'organismes sont liés.

Il y a deux ans, à l'aide de méthodes novatrices similaires, M. Rokhsar et ses collègues ont résolu un mystère de longue date concernant la chronologie des duplications du génome qui ont accompagné l'apparition des vertébrés à mâchoires. Mais l'importance de cette approche n'est pas purement rétrospective. En faisant ces découvertes, les chercheurs apprennent les règles algébriques simples qui régissent ce qui se passe lorsque les chromosomes échangent des parties d'eux-mêmes. Ces informations peuvent orienter les futures études génomiques et aider les biologistes à prédire ce qu'ils trouveront dans les génomes des espèces qui n'ont pas encore été séquencées.

"Nous commençons à avoir une vision plus large de l'évolution des chromosomes dans l'arbre de la vie", a déclaré Paulyn Cartwright, professeur d'écologie et de biologie évolutive à l'université du Kansas. Selon elle, les scientifiques peuvent désormais tirer des conclusions sur le contenu des chromosomes des tout premiers animaux. Ils peuvent également examiner comment les différents contenus des chromosomes ont changé ou sont restés les mêmes - et pourquoi - à mesure que les animaux se sont diversifiés. "Nous ne pouvions vraiment pas faire cela avant de disposer de ces génomes de haute qualité". 

Ce que partagent les anciens génomes

Dans l'étude publiée aujourd'hui, Rokhsar et une grande équipe internationale de collaborateurs ont produit le premier assemblage de haute qualité, au niveau des chromosomes, du génome de l'hydre, qu'ils décrivent comme un modèle de "vénérable cnidaire". En le comparant à d'autres génomes animaux disponibles, ils ont découvert des groupes de gènes liés hautement conservés. Bien que l'ordre des gènes au sein d'un bloc soit souvent modifié, les blocs eux-mêmes sont restés stables sur de longues périodes d'évolution.

Lorsque les scientifiques ont commencé à séquencer les génomes animaux il y a une vingtaine d'années, beaucoup d'entre eux n'étaient pas convaincus que des groupes de gènes liés entre eux sur les chromosomes pouvaient rester stables et reconnaissables au cours des éons, et encore moins qu'il serait possible de suivre le passage de ces blocs de gènes à travers pratiquement toutes les lignées animales.

Les animaux ont divergé de leurs parents unicellulaires il y a 600 ou 700 millions d'années, et "être capable de reconnaître les morceaux de chromosomes qui sont encore conservés après cette période de temps est étonnant", a déclaré Jordi Paps, un biologiste de l'évolution à l'Université de Bristol au Royaume-Uni.

"Avant de disposer de ces données sur les chromosomes entiers, nous examinions de petits fragments de chromosomes et nous observions de nombreux réarrangements", a déclaré M. Cartwright. "Nous supposions donc qu'il n'y avait pas de conservation, car les gènes eux-mêmes dans une région du chromosome changent de position assez fréquemment."

Pourtant, bien que l'ordre des gènes soit fréquemment remanié le long des chromosomes, Rokhsar a eu l'intuition, grâce à ses études antérieures sur les génomes animaux, qu'il y avait une relative stabilité dans les gènes apparaissant ensemble. "Si vous comparez une anémone de mer ou une éponge à un être humain, le fait que les gènes se trouvent sur le même morceau d'ADN semble être conservé", explique Rokhsar. "Et le modèle suggérait que des chromosomes entiers étaient également conservés". Mais cette notion n'a pu être testée que récemment, lorsque suffisamment d'informations génomiques à l'échelle du chromosome sur divers groupes d'animaux sont devenues disponibles.

Inertie génomique

Mais pourquoi des blocs de gènes restent-ils liés entre eux ? Selon Harris Lewin, professeur d'évolution et d'écologie à l'université de Californie à Davis, qui étudie l'évolution des génomes de mammifères, une des explications de ce phénomène, appelé synténie, est liée à la fonction des gènes. Il peut être plus efficace pour les gènes qui fonctionnent ensemble d'être physiquement situés ensemble ; ainsi, lorsqu'une cellule a besoin de transcrire des gènes, elle n'a pas à coordonner la transcription à partir de plusieurs endroits sur différents chromosomes. 

Ceci explique probablement la conservation de certains ensembles de gènes dont l'agencement est crucial : les gènes Hox qui établissent les plans corporels des animaux, par exemple, doivent être placés dans un ordre spécifique pour établir correctement le schéma corporel. Mais ces gènes étroitement liés se trouvent dans un morceau d'ADN relativement court. M. Rokhsar dit qu'il ne connaît aucune corrélation fonctionnelle s'étendant sur un chromosome entier qui pourrait expliquer leurs résultats.

(Ici une image décrit les différents types de fusion de chromosomes et l'effet de chacun sur l'ordre des gènes qu'ils contiennent.)

C'est pourquoi Rokhsar est sceptique quant à une explication fonctionnelle. Elle est séduisante ("Ce serait le résultat le plus cool, d'une certaine manière", dit-il) mais peut-être aussi inutile car, à moins qu'un réarrangement chromosomique ne présente un avantage fonctionnel important, il est intrinsèquement difficile pour ce réarrangement de se propager. Et les réarrangements ne sont généralement pas avantageux : Au cours de la méiose et de la formation des gamètes, tous les chromosomes doivent s'apparier avec un partenaire correspondant. Sans partenaire, un chromosome de taille inhabituelle ne pourra pas faire partie d'un gamète viable, et il a donc peu de chances de se retrouver dans la génération suivante. De petites mutations qui remanient l'ordre des gènes à l'intérieur des chromosomes peuvent encore se produire ("Il y a probablement une petite marge d'erreur en termes de réarrangements mineurs, de sorte qu'ils peuvent encore se reconnaître", a déclaré Cartwright). Mais les chromosomes brisés ou fusionnés ont tendance à être des impasses.

Peut-être que dans des groupes comme les mammifères, qui ont des populations de petite taille, un réarrangement pourrait se propager de façon aléatoire par ce qu'on appelle la dérive génétique, suggère Rokhsar. Mais dans les grandes populations qui se mélangent librement, comme celles des invertébrés marins qui pondent des centaines ou des milliers d'œufs, "il est vraiment difficile pour l'un des nouveaux réarrangements de s'imposer", a-t-il déclaré. "Ce n'est pas qu'ils ne sont pas tentés. C'est juste qu'ils ne parviennent jamais à s'imposer dans l'évolution."

Par conséquent, les gènes ont tendance à rester bloqués sur un seul chromosome. "Les processus par lesquels ils se déplacent sont tout simplement lents, sur une échelle de 500 millions d'années", déclare Rokhsar. "Même s'il s'est écoulé énormément de temps, ce n'est toujours pas assez long pour qu'ils puissent se développer".

( une image avec affichage de données montre comment des blocs de gènes ont eu tendance à rester ensemble même lorsqu'ils se déplaçaient vers différents chromosomes dans l'évolution de cinq premières espèces animales.)

L'équipe de Rokhsar a toutefois constaté que lorsque ces rares fusions de chromosomes se produisaient, elles laissaient une signature claire : Après une fusion, les gènes des deux blocs s'entremêlent et sont réorganisés car des "mutations d'inversion" s'y sont accumulées au fil du temps. En conséquence, les gènes des deux blocs se sont mélangés comme du lait versé dans une tasse de thé, pour ne plus jamais être séparés. "Il y a un mouvement entropique vers le mélange qui ne peut être annulé", affirme Rokhsar.

Et parce que les processus de fusion, de mélange et de duplication de blocs génétiques sont si rares, irréversibles et spécifiques, ils sont traçables : Il est très improbable qu'un chromosome se fracture deux fois au même endroit, puis fusionne et se mélange avec un autre bloc génétique de la même manière.

Les signatures de ces événements dans les chromosomes représentent donc un nouvel ensemble de caractéristiques dérivées que les biologistes peuvent utiliser pour tester des hypothèses sur la façon dont les espèces sont liées. Si deux lignées partagent un mélange de deux blocs de gènes, le mélange s'est très probablement produit chez leur ancêtre commun. Si des lignées ont deux ensembles de mêmes blocs de gènes, une duplication du génome a probablement eu lieu chez leur ancêtre commun. Cela fait des syntéries un "outil très, très puissant", a déclaré Oleg Simakov, génomiste à l'université de Vienne et premier auteur des articles. 

Empreintes digitales d'événements évolutifs

"L'un des aspects que je préfère dans notre étude est que nous faisons des prédictions sur ce à quoi il faut s'attendre au sein des génomes qui n'ont pas encore été séquencés", a écrit Rokhsar dans un courriel adressé à Quanta. Par exemple, son équipe a découvert que divers invertébrés classés comme spiraliens partagent tous quatre schémas spécifiques de fusion avec mélange, ce qui implique que les événements de fusion se sont produits chez leur ancêtre commun. "Il s'ensuit que tous les spiraliens devraient présenter ces schémas de fusion avec mélange de modèles", écrit Rokhsar. "Si l'on trouve ne serait-ce qu'un seul spiralien dépourvu de ces motifs, alors l'hypothèse peut être rejetée !".

Et d'ajouter : "On n'a pas souvent l'occasion de faire ce genre de grandes déclarations sur l'histoire de l'évolution."

Dans leur nouvel article Science Advances, Simakov, Rokhsar et leurs collègues ont utilisé l'approche tectonique pour en savoir plus sur l'émergence de certains des premiers groupes d'animaux il y a environ 800 millions d'années. En examinant le large éventail de vie animale représenté par les éponges, les cnidaires (tels que les hydres, les méduses et les coraux) et les bilatériens (animaux à symétrie bilatérale), les chercheurs ont trouvé 27 blocs de gènes hautement conservés parmi leurs chromosomes.

Ensuite, en utilisant les règles de fusion chromosomique et génétique qu'ils avaient identifiées, les chercheurs ont reconstitué les événements de mélange au niveau des chromosomes qui ont accompagné l'évolution de ces trois lignées à partir d'un ancêtre commun. Ils ont montré que les chromosomes des éponges, des cnidaires et des bilatériens représentent tous des manières distinctes de combiner des éléments du génome ancestral.

(Pour expliquer les 2 paragraphes précédents une image avec 3 schémas montre la fusion des chromosomes au début de l'évolution pou arriver au 27 blocs de gènes)

Une découverte stimulante qui a été faite est que certains des blocs de gènes liés semblent également présents dans les génomes de certaines créatures unicellulaires comme les choanoflagellés, les plus proches parents des animaux multicellulaires. Chez les animaux multicellulaires, l'un de ces blocs contient un ensemble diversifié de gènes homéobox qui guident le développement de la structure générale de leur corps. Cela suggère que l'un des tout premiers événements de l'émergence des animaux multicellulaires a été l'expansion et la diversification de ces gènes importants. "Ces anciennes unités de liaison fournissent un cadre pour comprendre l'évolution des gènes et des génomes chez les animaux", notent les scientifiques dans leur article.

Leur approche permet de distinguer de subtiles et importantes différences au niveau des événements chromosomiques. Par exemple, dans leur article de 2020, les chercheurs ont déduit que le génome des vertébrés avait subi une duplication au cours de la période cambrienne, avant que l'évolution ne sépare les poissons sans mâchoire des poissons avec mâchoire. Ils ont ensuite trouvé des preuves que deux poissons à mâchoires se sont hybridés plus tard et ont subi une deuxième duplication de leur génome ; cet hybride est devenu l'ancêtre de tous les poissons osseux.

John Postlethwait, génomicien à l'université de l'Oregon, souligne l'importance de la méthode d'analyse de l'équipe. "Ils ont adopté une approche statistique, et ne se sont pas contentés de dire : "Eh bien, il me semble que telle et telle chose s'est produite", a-t-il déclaré. "C'est une partie vraiment importante de leur méthodologie, non seulement parce qu'ils avaient accès à des génomes de meilleure qualité, mais aussi parce qu'ils ont adopté cette approche quantitative et qu'ils ont réellement testé ces hypothèses."

Ces études ne marquent que le début de ce que la tectonique des génomes et  ce que les syntagmes génétiques peuvent nous apprendre. Dans des prépublications récentes partagées sur biorxiv.org, l'équipe de Rokhsar a reconstitué l'évolution des chromosomes de grenouilles, et une équipe européenne s'est penchée sur l'évolution des chromosomes des poissons téléostéens. Une étude parue dans Current Biology a révélé une "inversion massive du génome" à l'origine de la coexistence de formes divergentes chez la caille commune, ce qui laisse entrevoir certaines des conséquences fonctionnelles du réarrangement des chromosomes.

L'hypothèse selon laquelle le mélange de ces groupes de liaisons génétiques pourrait être lié à la diversification des lignées et à l'innovation évolutive au cours des 500 derniers millions d'années est alléchante. Les réarrangements chromosomiques peuvent conduire à des incompatibilités d'accouplement qui pourraient provoquer la scission en deux d'une lignée. Il est également possible qu'un gène atterrissant dans un nouveau voisinage ait conduit à des innovations dans la régulation des gènes. "Peut-être que ce fut l'une des forces motrices de la diversification des animaux", a déclaré Simakov.

"C'est la grande question", a déclaré Lewin. "Il s'agit de véritables bouleversements tectoniques dans le génome, et il est peu probable qu'ils soient sans conséquence".

Auteur: Internet

Info: https://www.quantamagazine.org/secrets-of-early-animal-evolution-revealed-by-chromosome-tectonics-20220202.Viviane Callier 2 février 2022

[ méta-moteurs ] [ néo-phylogénie ]

 

Commentaires: 0

Ajouté à la BD par miguel

monde covidien

Paniques anticomplotistes

Si Hold-up n’avait pas existé, les anticomplotistes l’auraient inventé. C’est le produit parfait, le bloc de complotisme-étalon en platine iridié, déposé au Pavillon de Breteuil à Sèvres.(...)

Le torrent de commentaires qu’a immédiatement suscité la diffusion du documentaire est sans doute le premier signe qui trahit la fébrilité — du temps a passé depuis le mépris et les ricanements. Si encore il n’y avait que la quantité. Mais il faut voir la "qualité". C’est peut-être là le trait le plus caractéristique de l’épisode "Hold-up" que toutes les réactions médiatiques ou expertes suscitée par le documentaire ne font que reconduire les causes qui l’ont rendu possible. Les fortes analyses reprises à peu près partout ont d’abord fait assaut de savoirs professionnels par des professionnels : "la musique" — inquiétante (la musique complotiste est toujours inquiétante), le format "interviews d’experts sur fond sombre" (le complotisme est sombre), "le montage" (le montage… monte ?). C’est-à-dire, en fait, les ficelles ordinaires, et grossières, de tous les reportages de M6, TF1, LCI, BFM, France 2, etc. Et c’est bien parce que l’habitude de la bouillie de pensée a été installée de très longue date par ces formats médiatiques que les spectateurs de documentaires complotistes ne souffrent d’aucun dépaysement, se trouvent d’emblée en terrain formel connu, parfaitement réceptifs... et auront du mal à comprendre que ce qui est standard professionnel ici devienne honteuse manipulation là.

Complotistes ou décrypteurs ?

Mais les médias ont passé ce point d’inquiétude où l’on sent bien qu’on ne peut plus se contenter de la stigmatisation des cinglés. L’urgence maintenant c’est de comprendre — hélas en partant de si loin, et avec si peu de moyens. Alors la science médiatique-complotologique pioche pour refaire son retard, et tout y passe. Il y a d’abord, nous dit très sérieusement Nicolas Celnik dans Libération (lui aussi a compris qu’il ne fallait plus se moquer, alors il écrit une "Lettre à (son) ami complotiste"), que l’un des ressorts positifs des adeptes de complots vient de "l’impression d’avoir découvert ce qui devait rester caché". Mais Nicolas Celnik sait-il que le vocable princeps de l’idéologie journalistique est "décrypter", ce qui, si l’on suit bien l’étymologie, signifie, précisément, mettre à découvert ce qui était caché. Il n’est pas un organe de presse qui ne s’enorgueillisse de ses "décryptages". (...)

Le décryptage autorisé a toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente

Ici le parallélisme manifestement inaperçu entre les îlotes tentant de "découvrir ce qui devrait rester caché" et l’aristocratie des "décrypteurs" se complique de ce que le décryptage autorisé n’a jamais rien décrypté, qu’il a même toujours consisté en cette forme particulière de recryptage, mais ici tout à fait inconsciente, en quoi consiste le catéchisme néolibéral. Il suffit d’écouter un "décrypteur" livrer aux masses abruties qu’il a la bonté d’éclairer le sens profond de la suppression de l’ISF, de la réduction de la dette publique ou du démantèlement du code du travail pour être au clair sur ce que "décrypter" signifie réellement — à savoir voiler dans les catégories de la pensée néolibérale. "Décrypter", c’est avoir admis que les gueux ne se contentent plus d’une simple injonction, et entreprendre de leur en donner les bonnes raisons. Par exemple : "il faut supprimer l’ISF sinon les cerveaux partiront" — là c’est décrypté ; "il faut réduire la fiscalité du capital pour financer nos entreprises" (tout est clair) ; "il faut fermer des lits pour que l’hôpital soit agile" (décryptage de qualité : qui voudrait d’un hôpital podagre ou arthritique ? on comprend) ; "il faut réduire les dépenses publiques pour ne pas laisser la dette à nos enfants" (clarté économique, clarté morale), etc.

C’est très exaltant pour un journaliste de décrypter, ça donne un grand sentiment d’utilité sociale, c’est comme une charité démocratique. Les gueux ne pouvaient pas apercevoir tout ça, ça leur restait donc crypté — du coup on le leur décrypte. Décrypter, c’est faire comprendre aux intéressés ce qu’on va leur faire, pourquoi c’est nécessaire, et pourquoi c’est bon pour eux. (...)

Les complotistes en tout cas ont parfaitement reçu le message du "décryptage", à ceci près qu’à force de s’entendre administrer par d’autres un sens inaperçu du monde qui les bousille en leur expliquant qu’il est le meilleur possible, ils ont entrepris de s’en chercher un autre par eux-mêmes. Ça ne donne sans doute pas des résultats bien fameux — mais à décrypteur, décrypteur et demi. C’est le "décryptage" lui-même qui, pour permettre aux journalistes de faire les entendus, a installé l’idée qu’il y avait quelque chose à aller chercher dessous. Les complotistes les prennent au mot, à ceci près que le quelque chose des décrypteurs étant toujours la même chose, eux se mettent en devoir d’aller chercher autre chose.

Cérébroscopie des complotistes

Alors on va chercher pourquoi l’autodécryptage des gueux décrypte de travers. Ici la science complotologique est à son meilleur. Comme les sciences les plus avancées, elle isole des "effets". Par exemple la physique connaît "l’effet Compton", "l’effet Doppler", "l’effet Einstein". La complotologie, pour sa part dispose de l’effet "millefeuille argumentatif". Impossible d’ouvrir un article sur Hold-up sans avoir à manger du millefeuille (argumentatif) — une feuille de vrai, une feuille de faux, une feuille de vrai... Un journaliste de Mediapart va plus loin et pose gravement la question : "pourquoi nos cerveaux sont-ils si perméables" (à l’aberration complotiste) ? "Nos" : pas de discrimination offensante. "Cerveaux" : parce que c’est là-dedans que ça se passe. La réception du complotisme, c’est une affaire "dans le cerveau". Un psychologue social, dont la psychologie sociale n’a plus rien de social (mais c’est la grande tendance de la psychologie sociale) saisit aussitôt la perche du "cerveau" : comme une invitation faite aux sciences cognitives et à leur panacée explicative : le biais. Pourquoi le "cerveau" (des complotistes) erre-t-il ? Parce qu’il est en proie à des biais (cognitifs) — marche aussi avec "pourquoi votre fille est muette" : elle est en proie à des biais (auditifs). Après le biais pâtissier (celui du millefeuille — particulièrement traître avec toute cette crème, on ne sait plus si on mange des feuilles vraies ou des feuilles fausses), le biais de confirmation, puis le biais d’intentionnalité (à qui profite le crime ?), etc. De ce qu’il y a des biais, il résulte que la pensée n’est pas droite. C’est scientifique, on a bien avancé.

(...)

Les paroles institutionnelles en ruines

Voilà donc où en est la "compréhension" du fait complotiste dans les médias assistés de leurs experts satellites. D’où naît irrésistiblement un désir de compréhension de cette "compréhension", ou plutôt de cette incompréhension, de cette compréhension tronquée sur l’essentiel. En réalité, que la formation des opinions reprenne toute liberté, pour le meilleur et pour le pire, quand l’autorité des paroles institutionnelles est à terre, ça n’a pas grand-chose de surprenant. Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre. On les comprend : l’examen de conscience promet d’être douloureux, autant s’en dispenser — et maintenir le problème bien circonscrit au cerveau des complotistes.

Mais pourquoi l’autorité des paroles institutionnelles est-elle à terre ? C’est la question à laquelle les paroles institutionnelles ont le moins envie de répondre

C’est que l’autorité des paroles institutionnelles n’a pas été effondrée du dehors par quelque choc exogène adverse : elle s’est auto-effondrée, sous le poids de tous ses manquements. À commencer par le mensonge des institutions de pouvoir. Les institutions de pouvoir mentent. Mediator : Servier ment. Dépakine : Sanofi ment. Bridgestone : Bridgetsone ment. 20 milliards de CICE pour créer un million d’emplois : le Medef ment. Mais aussi : Lubrizol, les pouvoirs publics mentent ; nucléaire, tout est sûr : les nucléocrates mentent. Loi de programmation de la recherche : Vidal ment (mais à un point extravagant). Violences policières, alors là, la fête : procureurs, préfecture, IGPN, ministres, président de la République, tout le monde ment, et avec une obscénité resplendissante qui ajoute beaucoup. Covid : hors-concours.

Le capitalisme néolibéral a déchaîné les intérêts les plus puissants, or là où les intérêts croissent, la vérité trépasse. C’est qu’il faut bien accommoder la contradiction entre des politiques publiques forcenées et l’effet qu’elles font aux gens. Or pour combler ce genre d’écart, quand on a décidé de ne pas toucher aux causes de l’écart, il n’y a que le secours des mots. Alors on arrose généreusement avec du discours. Au début on fait de la "pédagogie", on "décrypte". Et puis quand le décryptage ne marche plus, il ne reste plus qu’à mentir — à soutenir que ce qui est n’est pas ("la police républicaine ne se cagoule pas, elle agit à visage découvert"), ou que ce qui n’est pas est (on ferme des lits pour améliorer l’accueil des malades). Quand il n’est pas pure et simple répression, le néolibéralisme finissant n’est plus qu’une piscine de mensonge. Nous baignons là-dedans. C’est devenu une habitude, et en même temps on ne s’y habitue pas. Vient forcément le moment où l’autorité de la parole institutionnelle s’effondre parce que l’écart entre ce qu’elle dit et ce que les gens expérimentent n’est plus soutenable d’aucune manière.

Alors ça part en glissement de terrain, et tout s’en va avec, notamment les médias d’accompagnement, précisément parce qu’ils auront accompagné, trop accompagné, pendant trop longtemps. Ils auront tant répété, tant ratifié, se seront tant empressés. Les complotistes voient l’esprit critique de la presse se réarmer dans la journée même de la parution d’un documentaire. Mais, en matière d’esprit critique, ils se souviennent aussitôt des interviews de Léa Salamé, de Macron interrogé par TF1-France2-BFM, de la soupe servie à la louche argentée, de la parole gouvernementale outrageusement mensongère mais jamais reprise comme telle, ils se souviennent de deux mois d’occultation totale des violences policières contre les "gilets jaunes", ils se souviennent du journalisme de préfecture qui a si longtemps débité tels quels les communiqués de Beauvau, certifié l’envahissement de la Salpêtrière par des casseurs.(...) C’est long trente ans à ce régime, pendant que le chômage, la précarité, les inégalités, les suicides et les services publics explosent. Ça en fait du travail de sape dans les esprits.

En fait c’est très simple : pourquoi les paroles institutionnelles s’effondrent-elles ? Parce que, dans le temps même où elles présidaient au délabrement de la société, elles auront, chacune dans leur genre, ou trop menti, ou trop couvert, ou trop laissé passer, ou trop regardé ailleurs, ou trop léché, que ça s’est trop vu, et qu’à un moment, ça se paye. Le complotisme en roue libre, c’est le moment de l’addition. Il faut vraiment être journaliste, ou expert de Conspiracy Watch pour ne pas voir ça. Trente ans de ruine à petit feu de l’autorité institutionnelle, et puis un beau jour, l’immeuble entier qui s’effondre : le discrédit. Mais normalement on sait ça : le crédit détruit, ne se reconstruit pas rapidement. Maintenant, il y a les ruines, et il va falloir faire au milieu des gravats pour un moment. On comprend que la plupart des médias, qui comptent au nombre des gravats, ne se résolvent pas à regarder le tableau. C’est bien pourquoi il fallait faire aussitôt un hold-up sur Hold-up : pour en fixer la "compréhension", et qu’elle ne s’en aille surtout pas ailleurs.

Rééducation et bienveillance

En attendant, la soupe est renversée et on a les complotistes sur les bras. Comment faire ? On a compris que l’heure de les traiter de cinglés était passée et qu’il urge de trouver autre chose pour endiguer la marée. Mais quoi ? Dans l’immédiat, pas grand-chose hélas, en tout cas pas ça. Il va falloir se faire à l’idée que la ruine des constructions de longue période, comme le crédit fait à la parole institutionnelle, ne se répare que par des reconstructions de longue période (par exemple, la destruction présente de la chaîne éducation-recherche prendra des décennies à être surmontée). Tant que la phalange anticomplotiste continuera d’apparaître telle qu’elle est, c’est-à-dire soudée au bloc des pouvoirs, le crédit de l’ensemble restera à zéro. En réalité, tant que la masse "médias" ne se fragmentera pas, tant que ne s’en détachera pas une fraction significative, qui rompe avec la position globale de ratification de l’ordre néolibéral et de déférence à l’endroit de tous ses pouvoirs, les clients du complotisme continueront de n’y voir qu’un appareil homogène de propagande — et d’aller chercher "ailleurs". Les gens ne vont chercher un "ailleurs" au-dehors que lorsque le champ institutionnel a échoué à aménager un "ailleurs" au-dedans. Mais quel aggiornamento, quelles révisions déchirantes, cette rupture, maintenant, ne suppose-t-elle pas ?

Pour l’heure, incapable, la parole autorisée cherche fébrilement quelque autre ressource — mais forcément au voisinage de ses formes de pensée invétérées. Idée de génie et redéploiement pédagogique : on va aller leur parler. Mais gentiment cette fois. On va leur écrire des lettres, en leur disant qu’ils sont nos amis — c’est donc la version Libération. Il y a celle du Monde. Si l’ambiance générale n’était pas si flippante, ce serait à se rouler par terre de rire. Tout y est. On va chercher Valérie Igounet de Conspiracy Watch — on avait l’habitude jusqu’ici de Rudy Reichstadt mais lui est trop épais, c’était l’anticomplotisme première manière, maintenant on ne peut plus le sortir. Dans la saison 2, ça donne : "Il faut réfuter par des faits, décrypter, mais sans être dans l’accusation ou la moquerie". Voilà la solution : tout dans l’onctueux, l’humain et la bienveillance — on est excellemment partis. "On est sur un fil", ajoute quand même l’experte dans un souffle. Tu l’as dit Valérie.

Tristan Mendès-France, lui, explique à peu de choses près qu’on a le stock des zinzins sur les bras et qu’avec eux, c’est foutu, il faudra faire avec. Mais que tout notre effort doit aller à enrayer les nouveaux recrutements : "il faut viser les primo-arrivants, faire de la prévention". Valérie Igounet a déjà commencé : elle mène, nous explique Le Monde, "de nombreux ateliers avec l’Observatoire du complotisme auprès d’enfants" — il faut prendre les "primo-arrivants" de loin. Tout le problème de l’anticomplotisme, c’est qu’il peut prononcer l’âme claire une phrase pareille qui, normalement, devrait faire froid dans le dos. Qu’on n’aille pas croire à une embardée individuelle : c’est la ligne générale. Le nouvel expert gyroscopique — il tourne sur à peu près tous les médias, France Culture, Le Monde, Regards —, Thomas Huchon, pense également qu’il faut "faire de l’éducation aux médias (…) en gros de la prévention pour vacciner contre l’épidémie de “fake news”". On se croirait au point de presse de Jérôme Salomon, et ça n’est pas un hasard. Car c’est cela qu’on trouve dans une tête d’anticomplotiste : des images de bacilles, de prophylaxie et de cordon sanitaire. De politique ? Aucunement. Ça n’est pas une affaire de politique, ou de discours politique : c’est une affaire médicale.

On voit d’ici à quoi pourra ressembler "l’éducation", ou plutôt la rééducation, aux médias. L’essentiel est que l’analyse du complotisme soit ramenée à son cadre : d’un côté le pathologique, de l’autre le pédagogique. Et puis, dans le camp-école réaménagé, les éducateurs, nous est-il désormais garanti, seront pleins d’empathie et d’écoute : "la diffusion du complotisme, conclut l’article du Monde, pose un défi à une multitude d’acteurs qui doivent plus que jamais prendre le temps d’expliquer, de démontrer, sans ostraciser ni caricaturer". De ne rien comprendre à ce point, c’en est extravagant. Finalement, rien n’a bougé d’un iota, le complotisme a encore de beaux jours devant lui. On se croirait revenu dans Tintin au Congo, mais où on aurait rappelé les missionnaires pour leur faire faire une UV de psycho avant de les renvoyer sur le terrain : "Nous n’économiserons ni notre patience ni notre bonté pour vous faire apercevoir que les esprits de la forêt n’existent pas. Puisque ce qui existe, c’est Dieu". 

Auteur: Lordon Fredéric

Info: https://blog.mondediplo.net/paniques-anticomplotistes, 25 nov 2020

[ contre-mesures sémantiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

évolution technologique

Intelligence artificielle ou stupidité réelle ?

Bien que le battage médiatique augmente la sensibilisation à l'IA, il facilite également certaines activités assez stupides et peut distraire les gens de la plupart des progrès réels qui sont réalisés.
Distinguer la réalité des manchettes plus dramatiques promet d'offrir des avantages importants aux investisseurs, aux entrepreneurs et aux consommateurs.

L'intelligence artificielle a acquis sa notoriété récente en grande partie grâce à des succès très médiatisés tels que la victoire d'IBM Watson à Jeopardy et celle de Google AlphaGo qui a battu le champion du monde au jeu "Go". Waymo, Tesla et d'autres ont également fait de grands progrès avec les véhicules auto-propulsés. Richard Waters a rendu compte de l'étendue des applications de l'IA dans le Financial Times : "S'il y a un message unificateur qui sous-tend la technologie grand public exposée [au Consumer Electronics Show] .... c'est : "L'IA partout."

Les succès retentissants de l'IA ont également capturé l'imagination des gens à un tel point que cela a suscité d'autres efforts d'envergure. Un exemple instructif a été documenté par Thomas H. Davenport et Rajeev Ronanki dans le Harvard Business Review. Ils écrirent, "En 2013, le MD Anderson Cancer Center a lancé un projet ""Moon shot " : diagnostiquer et recommander des plans de traitement pour certaines formes de cancer en utilisant le système cognitif Watson d'IBM". Malheureusement, ce système n'a pas fonctionné et en 2017 le projet fut mis en veilleuse après avoir coûté plus de 62 millions de dollars sans avoir été utilisé pour les patients.

Waters a également abordé un autre message, celui des attentes modérées. En ce qui concerne les "assistants personnels à commande vocale", note-t-elle, "on ne sait pas encore si la technologie est capable de remplacer le smartphone pour naviguer dans le monde numérique autrement autrement que pour écouter de la musique ou vérifier les nouvelles et la météo".

D'autres exemples de prévisions modérées abondent. Generva Allen du Baylor College of Medicine et de l'Université Rice a avertit , "Je ne ferais pas confiance à une très grande partie des découvertes actuellement faites qui utilisent des techniques de machine learning appliquées à de grands ensembles de données". Le problème, c'est que bon nombre des techniques sont conçues pour fournir des réponses précises et que la recherche comporte des incertitudes. Elle a précisé : "Parfois, il serait beaucoup plus utile qu'ils reconnaissent que certains sont vraiment consolidés, mais qu'on est pas sûr pour beaucoup d'autres".

Pire encore, dans les cas extrêmes, l'IA n'est pas seulement sous-performante ; elle n'a même pas encore été mise en œuvre. Le FT rapporte, "Quatre jeunes entreprises européennes sur dix n'utilisent aucun programme d'intelligence artificielle dans leurs produits, selon un rapport qui souligne le battage publicitaire autour de cette technologie.

Les cycles d'attentes excessives suivies de vagues de déception ne sont pas surprenants pour ceux qui ont côtoyé l'intelligence artificielle pendant un certain temps. Ils savent que ce n'est pas le premier rodéo de l'IA. En effet, une grande partie du travail conceptuel date des années 1950. D'ailleurs, en passant en revue certaines de mes notes récentes je suis tombé sur une pièce qui explorait les réseaux neuronaux dans le but de choisir des actions - datant de 1993.

La meilleure façon d'avoir une perspective sur l'IA est d'aller directement à la source et Martin Ford nous en donne l'occasion dans son livre, Architects of Intelligence. Organisé sous la forme d'une succession d'entrevues avec des chercheurs, des universitaires et des entrepreneurs de premier plan de l'industrie, le livre présente un historique utile de l'IA et met en lumière les principaux courants de pensée.

Deux perspectives importantes se dégagent de ce livre.

La première est qu'en dépit des origines et des personnalités disparates des personnes interrogées, il existe un large consensus sur des sujets importants.

L'autre est qu'un grand nombre des priorités et des préoccupations des principales recherches sur l'IA sont bien différentes de celles exprimées dans les médias grand public.

Prenons par exemple le concept d'intelligence générale artificielle (AGI). Qui est étroitement lié à la notion de "singularité" ce point où l'IA rejoindra celle de l'homme - avant un dépassement massif de cette dernière. Cette idée et d'autres ont suscité des préoccupations au sujet de l'IA, tout comme les pertes massives d'emplois, les drones tueurs et une foule d'autres manifestations alarmantes.

Les principaux chercheurs en AI ont des points de vue très différents ; ils ne sont pas du tout perturbés par l'AGI et autres alarmismes.

Geoffrey Hinton, professeur d'informatique à l'Université de Toronto et vice-président et chercheur chez Google, dit : "Si votre question est : Quand allons-nous obtenir un commandant-docteur Data (comme dans Star Trek ) je ne crois pas que ce sera comme çà que ça va se faire. Je ne pense pas qu'on aura des programmes uniques et généralistes comme ça."

Yoshua Bengio, professeur d'informatique et de recherche opérationnelle à l'Université de Montréal, nous dit qu'il y a des problèmes très difficiles et que nous sommes très loin de l'IA au niveau humain. Il ajoute : "Nous sommes tous excités parce que nous avons fait beaucoup de progrès dans cette ascension, mais en nous approchant du sommet, nous apercevons d'autres collines qui s'élèvent devant nous au fur et à mesure".

Barbara Grosz, professeur de sciences naturelles à l'Université de Harvard : "Je ne pense pas que l'AGI soit la bonne direction à prendre". Elle soutient que la poursuite de l'AGI (et la gestion de ses conséquences) sont si loin dans l'avenir qu'elles ne sont que "distraction".

Un autre fil conducteur des recherches sur l'IA est la croyance que l'IA devrait être utilisée pour améliorer le travail humain plutôt que le remplacer.

Cynthia Breazeal, directrice du groupe de robots personnels du laboratoire de médias du MIT, aborde la question : "La question est de savoir quelle est la synergie, quelle est la complémentarité, quelle est l'amélioration qui permet d'étendre nos capacités humaines en termes d'objectifs, ce qui nous permet d'avoir vraiment un plus grand impact dans le monde, avec l'IA."

Fei-Fei Li, professeur d'informatique à Stanford et scientifique en chef pour Google Cloud dit lui : "L'IA en tant que technologie a énormément de potentiel pour valoriser et améliorer le travail, sans le remplacer".

James Manyika, président du conseil et directeur du McKinsey Global Institute, fait remarquer que puisque 60 % des professions ont environ un tiers de leurs activités qui sont automatisables et que seulement environ 10 % des professions ont plus de 90 % automatisables, "beaucoup plus de professions seront complétées ou augmentées par des technologies qu'elles ne seront remplacées".

De plus, l'IA ne peut améliorer le travail humain que si elle peut travailler efficacement de concert avec lui.

Barbara Grosz fait remarquer : "J'ai dit à un moment donné que 'les systèmes d'IA sont meilleurs s'ils sont conçus en pensant aux gens'". Je recommande que nous visions à construire un système qui soit un bon partenaire d'équipe et qui fonctionne si bien avec nous que nous ne nous rendions pas compte qu'il n'est pas humain".

David Ferrucci, fondateur d'Elemental Cognition et directeur d'IA appliquée chez Bridgewater Associates, déclare : " L'avenir que nous envisageons chez Elemental Cognition repose sur une collaboration étroite et fluide entre l'intelligence humaine et la machine. "Nous pensons que c'est un partenariat de pensée." Yoshua Bengio nous rappelle cependant les défis à relever pour former un tel partenariat : "Il ne s'agit pas seulement de la précision [avec l'IA], il s'agit de comprendre le contexte humain, et les ordinateurs n'ont absolument aucun indice à ce sujet."

Il est intéressant de constater qu'il y a beaucoup de consensus sur des idées clés telles que l'AGI n'est pas un objectif particulièrement utile en ce moment, l'IA devrait être utilisée pour améliorer et non remplacer le travail et l'IA devrait fonctionner en collaboration avec des personnes. Il est également intéressant de constater que ces mêmes leçons sont confirmées par l'expérience des entreprises.

Richard Waters décrit comment les implémentations de l'intelligence artificielle en sont encore à un stade assez rudimentaire.

Éliminez les recherches qui monopolisent les gros titres (un ordinateur qui peut battre les humains au Go !) et la technologie demeure à un stade très primaire .

Mais au-delà de cette "consumérisation" de l'IT, qui a mis davantage d'outils faciles à utiliser entre les mains, la refonte des systèmes et processus internes dans une entreprise demande beaucoup de travail.

Ce gros travail prend du temps et peu d'entreprises semblent présentes sur le terrain. Ginni Rometty, responsable d'IBM, qualifie les applications de ses clients d'"actes aléatoires du numérique" et qualifie nombre de projets de "hit and miss". (ratages). Andrew Moore, responsable de l'intelligence artificielle pour les activités de Google Cloud business, la décrit comme "intelligence artificielle artisanale". Rometty explique : "Ils ont tendance à partir d'un ensemble de données isolé ou d'un cas d'utilisation - comme la rationalisation des interactions avec un groupe particulier de clients. Tout ceci n'est pas lié aux systèmes, données ou flux de travail plus profonds d'une entreprise, ce qui limite leur impact."

Bien que le cas HBR du MD Anderson Cancer Center soit un bon exemple d'un projet d'IA "au clair de lune "qui a probablement dépassé les bornes, cela fournit également une excellente indication des types de travail que l'IA peut améliorer de façon significative. En même temps que le centre essayait d'appliquer l'IA au traitement du cancer, son "groupe informatique expérimentait l'utilisation des technologies cognitives pour des tâches beaucoup moins ambitieuses, telles que faire des recommandations d'hôtels et de restaurants pour les familles des patients, déterminer quels patients avaient besoin d'aide pour payer leurs factures, et résoudre les problèmes informatiques du personnel".

Dans cette entreprise, le centre a eu de bien meilleures expériences : "Les nouveaux systèmes ont contribué à accroître la satisfaction des patients, à améliorer le rendement financier et à réduire le temps consacré à la saisie fastidieuse des données par les gestionnaires de soins de l'hôpital. De telles fonctions banales ne sont peut-être pas exactement du ressort de Terminator, mais elles sont quand même importantes.

Optimiser l'IA dans le but d'augmenter le travail en collaborant avec les humains était également le point central d'une pièce de H. James Wilson et Paul R. Daugherty "HBRpiece". Ils soulignent : "Certes, de nombreuses entreprises ont utilisé l'intelligence artificielle pour automatiser leurs processus, mais celles qui l'utilisent principalement pour déplacer leurs employés ne verront que des gains de productivité à court terme. Grâce à cette intelligence collaborative, l'homme et l'IA renforcent activement les forces complémentaires de l'autre : le leadership, le travail d'équipe, la créativité et les compétences sociales de la première, la rapidité, l'évolutivité et les capacités quantitatives de la seconde".

Wilson et Daugherty précisent : "Pour tirer pleinement parti de cette collaboration, les entreprises doivent comprendre comment les humains peuvent le plus efficacement augmenter les machines, comment les machines peuvent améliorer ce que les humains font le mieux, et comment redéfinir les processus commerciaux pour soutenir le partenariat". Cela demande beaucoup de travail et cela va bien au-delà du simple fait de balancer un système d'IA dans un environnement de travail préexistant.

Les idées des principaux chercheurs en intelligence artificielle, combinées aux réalités des applications du monde réel, offrent des implications utiles. La première est que l'IA est une arme à double tranchant : le battage médiatique peut causer des distractions et une mauvaise attribution, mais les capacités sont trop importantes pour les ignorer.

Ben Hunt discute des rôles de la propriété intellectuelle (PI) et de l'intelligence artificielle dans le secteur des investissements, et ses commentaires sont largement pertinents pour d'autres secteurs. Il note : "L'utilité de la propriété intellectuelle pour préserver le pouvoir de fixation des prix est beaucoup moins fonction de la meilleure stratégie que la PI vous aide à établir, et beaucoup plus fonction de la façon dont la propriété intellectuelle s'intègre dans le l'esprit du temps (Zeitgeist) dominant dans votre secteur.

Il poursuit en expliquant que le "POURQUOI" de votre PI doit "répondre aux attentes de vos clients quant au fonctionnement de la PI" afin de protéger votre produit. Si vous ne correspondez pas à l'esprit du temps, personne ne croira que les murs de votre château existent, même si c'est le cas". Dans le domaine de l'investissement (et bien d'autres encore), "PERSONNE ne considère plus le cerveau humain comme une propriété intellectuelle défendable. Personne." En d'autres termes, si vous n'utilisez pas l'IA, vous n'obtiendrez pas de pouvoir de fixation des prix, quels que soient les résultats réels.

Cela fait allusion à un problème encore plus grave avec l'IA : trop de gens ne sont tout simplement pas prêts à y faire face.

Daniela Rus, directrice du laboratoire d'informatique et d'intelligence artificielle (CSAIL) du MIT déclare : "Je veux être une optimiste technologique. Je tiens à dire que je vois la technologie comme quelque chose qui a le potentiel énorme d'unir les gens plutôt que les diviser, et de les autonomiser plutôt que de les désolidariser. Mais pour y parvenir, nous devons faire progresser la science et l'ingénierie afin de rendre la technologie plus performante et plus utilisable." Nous devons revoir notre façon d'éduquer les gens afin de nous assurer que tous ont les outils et les compétences nécessaires pour tirer parti de la technologie.

Yann Lecun ajoute : "Nous n'aurons pas de large diffusion de la technologie de l'IA à moins qu'une proportion importante de la population ne soit formée pour en tirer parti ".

Cynthia Breazeal répéte : "Dans une société de plus en plus alimentée par l'IA, nous avons besoin d'une société alphabétisée à l'IA."

Ce ne sont pas non plus des déclarations creuses ; il existe une vaste gamme de matériel d'apprentissage gratuit pour l'IA disponible en ligne pour encourager la participation sur le terrain.

Si la société ne rattrape pas la réalité de l'IA, il y aura des conséquences.

Brezeal note : "Les craintes des gens à propos de l'IA peuvent être manipulées parce qu'ils ne la comprennent pas."

Lecun souligne : " Il y a une concentration du pouvoir. À l'heure actuelle, la recherche sur l'IA est très publique et ouverte, mais à l'heure actuelle, elle est largement déployée par un nombre relativement restreint d'entreprises. Il faudra un certain temps avant que ce ne soit utilisé par une plus grande partie de l'économie et c'est une redistribution des cartes du pouvoir."

Hinton souligne une autre conséquence : "Le problème se situe au niveau des systèmes sociaux et la question de savoir si nous allons avoir un système social qui partage équitablement... Tout cela n'a rien à voir avec la technologie".

À bien des égards, l'IA est donc un signal d'alarme. En raison de l'interrelation unique de l'IA avec l'humanité, l'IA a tendance à faire ressortir ses meilleurs et ses pires éléments. Certes, des progrès considérables sont réalisés sur le plan technologique, ce qui promet de fournir des outils toujours plus puissants pour résoudre des problèmes difficiles. Cependant, ces promesses sont également limitées par la capacité des gens, et de la société dans son ensemble, d'adopter les outils d'IA et de les déployer de manière efficace.

Des preuves récentes suggèrent que nous avons du pain sur la planche pour nous préparer à une société améliorée par l'IA. Dans un cas rapporté par le FT, UBS a créé des "algorithmes de recommandation" (tels que ceux utilisés par Netflix pour les films) afin de proposer des transactions pour ses clients. Bien que la technologie existe, il est difficile de comprendre en quoi cette application est utile à la société, même de loin.

Dans un autre cas, Richard Waters nous rappelle : "Cela fait presque dix ans, par exemple, que Google a fait trembler le monde de l'automobile avec son premier prototype de voiture autopropulsée". Il continue : "La première vague de la technologie des voitures sans conducteur est presque prête à faire son entrée sur le marché, mais certains constructeurs automobiles et sociétés de technologie ne semblent plus aussi désireux de faire le grand saut. Bref, ils sont menacés parce que la technologie actuelle est à "un niveau d'autonomie qui fait peur aux constructeurs automobiles, mais qui fait aussi peur aux législateurs et aux régulateurs".

En résumé, que vous soyez investisseur, homme d'affaires, employé ou consommateur, l'IA a le potentiel de rendre les choses bien meilleures - et bien pires. Afin de tirer le meilleur parti de cette opportunité, un effort actif axé sur l'éducation est un excellent point de départ. Pour que les promesses d'AI se concrétisent, il faudra aussi déployer beaucoup d'efforts pour mettre en place des infrastructures de systèmes et cartographier les forces complémentaires. En d'autres termes, il est préférable de considérer l'IA comme un long voyage plutôt que comme une destination à court terme.

Auteur: Internet

Info: Zero Hedge, Ven, 03/15/2019 - 21:10

[ prospective ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel