Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 262
Temps de recherche: 0.069s

philosophie

Tout le monde a une théorie sur ce qui se passe dans notre monde. Mais beaucoup sont partielles, ou fragmentaires, ou trop simples – attribuant trop d'importance au "capitalisme", au "mondialisme", à "l'opportunisme" ou aux "conséquences imprévues". Nous devons continuer à essayer de donner un sens à l'ensemble du scénario.

Commençons par quelques grandes hypothèses sur ce qui se passe. L'hypothèse de René Guénon, esquissée pour la première fois vers 1930, était que toutes les civilisations possèdent des pouvoirs spirituels et temporels et incorporent donc en quelque sorte une tension entre les deux : mais que, pour la première fois dans l'histoire, notre modernité, à partir de  1500, a placé le temporel au-dessus de l'Eternel, le matériel au-dessus du spirituel : en bref, 'l'état' au-dessus de 'l'église'.  On a vu quelques hypothèses connexes proposées en même temps : comme celle de Julien Benda selon laquelle les clercs, ou intellectuels, avaient déplacé leur préoccupation : ainsi l'immense valeur qu'ils avaient toujours attribuée aux choses non mondaines était maintenant attribuée aux choses mondaines. C'est-à-dire que les intellectuels étaient maintenant corrompus, en quelque sorte suivistes de profits sales.

Un ami américain a récemment attiré mon attention sur certains des écrits récents d'un romancier et essayiste, Paul Kingsnorth . A l'origine anticapitaliste, il se croyait à gauche, et se retrouve aujourd'hui plus ou moins à droite. Son hypothèse est que le déclin du christianisme dans notre civilisation – déclin de l'éternel et du spirituel – coïncide et a probablement été causé par la montée de ce qu'il nomme "mythe du progrès". Le progrès, c'est la conviction que le monde, ce monde, va mieux. Ce mythe est le genre de chose que nous pouvons associer à Francis Bacon ou John Stuart Mill, ou encore Bayle, Mandeville, Voltaire, Smith, Hegel, Comte, Marx - plus ou moins tout le monde des XVIIe au XIXe siècles, sauf pour des gens un peu plus pointus comme Bossuet ou Maistre, aussi pour Burke à la toute fin de sa vie. Kingsnorth construit une vision très efficace de l'histoire sur cette hypothèse, ce qui lui permet d'expliquer pourquoi gauchistes et corporatistes s'accordent si bien aujourd'hui. Tous, dit-il, veulent du progrès. Ils contribuent tous à ce qu'il appelle la Machine.

Acceptons ces deux hypothèses. Mais je dois en ajouter un troisième, qui ajoute une complication interne à la deuxième, et rend ainsi l'ensemble du scénario un peu plus dynamique. Cela peut même expliquer pourquoi il y a tant de confusion sur ce qui s'est passé. L'hypothèse est qu'il n'y a jamais eu un seul "mythe du progrès" : la puissance du mythe du progrès était qu'il contenait un contradiction interne, comme les traducteurs de Hegel ont eu l'habitude de la nommer : une division intérieure.  Deux positions rivales en désaccord sur le comment alors même qu'elles étaient d'accord sur le quoi . Le quoi étant un présupposé absolu - quelque chose de si fondamental qu'il n'a jamais été remis en question par aucune des parties. Comme c'est toujours le cas, le désaccord au premier plan détournait l'attention de l'accord plus profond qui dominait tout à l'arrière-plan.

Ce sur quoi ils étaient d'accord, c'est que des progrès se produisaient et devaient se produire . Ce sur quoi ils n'étaient pas d'accord, c'était comment cela devait se passer. Je simplifie bien sûr ici, mais simplifier un argument en deux positions est bien moins simple que de le simplifier en une position.

D'un côté il y avait l'argument selon lequel des progrès étaient en cours, que cela nous plaise ou non. Cela se produisait à travers ce qu'Adam Smith appelait la main invisible, ou ce que Samuel Johnson appelait la concaténation secrète, ce que nous appelons parfois maintenant la loi des conséquences imprévues. C'est le processus par lequel de nombreux humains, à la poursuite de leurs propres intérêts individuels, ont contribué à l'émergence d'un bien qu'aucun n'avait jamais voulu, et qu'aucun n'avait anticipé, mais qui pouvait être compris rétrospectivement.

De l'autre côté, il y avait l'argument selon lequel le progrès ne se produirait que si nous adoptions les bonnes croyances rationnelles, les bonnes vues éclairées ( iberté, égalité, fraternité, etc.), et si nous nous efforcions d'imposer au monde les politiques ou les schémas suggéré par les bonnes croyances rationnelles et les bonnes vues éclairées. Il s'agissait de mettre l'accent sur la planification plutôt que sur les conséquences imprévues : et la planification ne pouvait être efficace que si elle était effectuée par ceux au pouvoir. Ainsi, les puissants devaient être subjugués par les experts de l'illumination.

La différence entre ces deux positions est que l'une y voit un processus inconscient , l'autre y voit une impulsion consciente. Ces deux positions ont dominé le débat politique deux siècles durant : d'une part, les uns ont privilégié les marchés et l'activité privée indépendante et apparemment (mais pas réellement ou finalement) égoïste, et d'autre part, un caméralisme, un colbertisme ou un comtisme de la planification scientifique. et l'activité publique collective.

En pratique, bien sûr, les deux ont été mélangées, ont reçu des noms variés, et certaines personnes qui ont commencé d'un côté pour se retrouver de l'autre : pensez à la dérive de John Stuart Mill ou de TH Green du libéralisme au socialisme ; mais considérez également la dérive de Kingsley Amis, Paul Johnson et John Osborne dans l'autre sens. Décoller tout cela est un boulôt de dingue : il faut peut-être le laisser aux historiens qui ont la patience de le faire. Mais les historiens ont tendance à embrouiller les choses... Alors tout ça mérite quelques explications : et l'expliquer dans l'abstrait, comme je le fais ici, permet certainement d'expliquer pourquoi les libéraux ont parfois été d'un côté ou de l'autre, et pourquoi les conservateurs sont tout aussi chimériques. 

Le point de cette hypothèse est de dire que toute la politique des deux derniers siècles fut dominée par des arguments sur la question de savoir si le progrès aurait lieu dans l'observance ou dans la violation, pour ainsi dire : s'il devrait être théorisé consciemment et ensuite imposée par une politique prudente, ou si il devait survenir sans planification délibérée de telle manière que seuls les historiens ultérieurs pourraient le comprendre pleinement. Mais tout ça est terminé. Nous sommes maintenant à l'étape suivante.

Cela s'explique en partie par le fait que, comme le dit Kingsnorth, le mythe du progrès - bien qu'il ne soit pas entièrement mort - parait pratiquer ses derniers rites. Il est sans doute en difficulté depuis les années 1890, a été secoué par la Première Guerre mondiale ; mais il a subi ses chocs récents depuis les années 1970, avec la pollution, la surpopulation, la stagflation, l'ozone, le dioxyde de carbone, les prêts hypothécaires à risque, etc. Pour l'instant les mondialistes ne savent pas exactement comment concilier le cercle du désir de "progrès" (ou, du moins comment être "progressiste") tout en faisant simultanément promotion de la "durabilité". Si nous avons un mythe en ce moment c'est sûrement le mythe de la durabilité. Peut-être que les mondialistes et les localistes comme Kingsnorth constateront que, bien qu'ils soient en désaccord sur beaucoup de choses - COVID-19, par exemple - ils sont d'accord sur la durabilité.

Mais il y a quelque chose à ajouter, une quatrième hypothèse, et c'est vraiment l'hypothèse suprême. J'ai dit que pendant quelques siècles, il y avait la planification contre le laissez-faire , ou la conscience contre les conséquences imprévues - les deux essayant de trouver comment rendre le monde, ce monde, meilleur. Mais il y a autre chose. La quatrième hypothèse est que certains personnages du début du XIXe siècle entrevoyaient que les deux positions pouvaient se confondre. Hegel était l'une de ces figures ; même Marx. Il y en eut d'autres; qui sont nombreux maintenant. Fusion qui signifiait quelque chose comme ce qui suit :

Jusqu'à présent, nous avons fait l'erreur de penser que le bien peut être imposé consciemment - généralement par le biais de préceptes religieux - mais nous avons découvert, grâce à Mandeville, Smith et les économistes, que le bien peut être obtenu par des conséquences involontaires. Ce qui ne signifie cependant pas que nous devrions adopter une politique de laissez-faire : au contraire, maintenant que nous comprenons les conséquences imprévues , nous savons comment fonctionne tout le système inconscient du monde, et puisque nous savons comment intégrer notre connaissance de ceci dans notre politique, nous pouvons enfin parvenir à un ordre mondial scientifique et moral ou probant et justifié parfait.

Est-ce clair? Les Lumières écossaises ont créé l'expert empirique, qui a fusionné avec le progressiste conscient moralement assuré, pour devenir l'espoir du monde. Sans doute, la plupart d'entre nous ont abandonné les fantasmes hégéliens et marxistes de "fin de l'histoire" ou d'"émancipation", mais je pense que l'ombre de ces fantasmes a survécu et s'est achevée dans le récent majoritarisme scientifique et moral, si clairement vu depuis que le COVID-19 est arrivé dans le monde.

Si j'ai raison à propos de cette quatrième hypothèse, cela explique pourquoi nous sommes si confus. Nous ne pouvons pas donner un sens à notre situation en utilisant le vieux langage du "collectivisme" contre "l'individualisme". Le fait est qu'à notre époque post-progressiste, les experts se sentent plus justifiés que jamais pour imposer à chacun un ensemble de protocoles et de préceptes "fondés sur des preuves" et "moralement justifiés". Plus justifiés parce que combinant la connaissance de la façon dont les choses fonctionnent individuellement (par la modélisation et l'observation de processus inconscients ou de conséquences imprévues) avec la certitude sur ce qu'il est juste de faire collectivement (étant donné que les vieux fantasmes de progrès ont été modifiés par une idéologie puritaine et contraignante de durabilité et de survie, ajoutée de diversité, d'équité et d'inclusion - qui sert d'ailleurs plus d'impulsion de retenue que d'anticipation d'une émancipation du marxisme)

Ce n'est pas seulement toxique mais emmêlé. Les niveaux d'hypocrisie et d'auto-tromperie impliqués dans cela sont formidables. Les mondialistes ont une doctrine à toute épreuve dans leur politique durable qui sauve le monde, ou "durabilité". Elle est presque inattaquable, puisqu'elle s'appuie sur les plus grandes réalisations des sciences naturelles et morales. Tout ça bien sûr alimenté par une ancienne cupidité acquisitive, mais aussi par le sentiment qu'il faut offrir quelque chose en échange de leur manque de privilèges à ceux qui ont besoin d'être nivelés ; et tout ça bien sûr rend le monde meilleur, "sauve" la planète, dorant les cages des déshérités et les palais des privilégiés de la même laque d'or insensée.

Peut-être, comme l'entrevoient Guenon et Kingsnorth – également Delingpole et Hitchens – la vérité est-elle que nous devons réellement remonter à travers toute l'ère de la durabilité et l'ère du progrès jusqu'à l'ère de la foi. Certes, quelqu'un ou quelque chose doit forcer ces "élites" à se soumettre à une vision supérieure : et je pense que la seule façon de donner un sens à cela pour le moment est d'imaginer qu'une église ou un prophète ou un penseur visionnaire puisse abattre leur État - la laïcité corporate-, leur montrer que leur foi n'est qu'une idéologie servant leurs intérêts, et qu'ils doivent se soumettre à une doctrine authentiquement fondée sur la grâce,  apte à admettre la faute, l'erreur, voire le péché. Cela ne se ferait pas par des excuses publiques ou une démonstration politique hypocrite, mais en interrogeant leurs propres âmes.

Je suis pas certain que c'est ce qui arrivera, ni même que cela devrait arriver (ou que cela pourrait arriver) : mais c'est certainement le genre de chose qui doit arriver. Autrement dit, c'est le genre de chose que nous devrions imaginer arriver. Ce qui se passera sera soit du genre Oie Blanche ancienne, soit peut-être un événement inattendu style "Black Swan" (pas nécessairement une bonne chose : nous semblons trop aimer la crise en ce moment). Mais, de toute façon, une sensibilité réactionnaire semble être la seule capable de manifester une quelconque conscience de ce qui se passe.

Pour clarifier, permettez-moi d'énoncer à nouveau les quatre hypothèses sur ce phénomène :

1. A travers toutes les époques, il y a eu un équilibre entre spiritualité et  sécularisation. Dans notre modernité, la sécularité est dominante. Il n'y a que ce monde.

2. Depuis environ trois siècles, nous croyons que ce monde s'améliore et devrait s'améliorer. C'est le "mythe du progrès".

3. Il y a toujours eu des désaccords sur le progrès : certains pensaient qu'il était le fruit du hasard et de l'intérêt individuel ; d'autres pensaient qu'il ne pouvait être que le résultat d'une conception délibérée.

4. Nous ne devons pas ignorer qu'il y a eu une fusion très intelligente de ces deux positions : une fusion qui ne s'est pas évanouie avec l'évanouissement du "mythe du progrès" mais qui survit pour soutenir la politique étrange et nouvelle de ce que nous pourrions appeler le "mythe de la durabilité". Cette fusion est extrêmement condescendante et sûre d'elle-même car elle associe la certitude scientifique de ce qui s'est passé inconsciemment pour améliorer le monde à la certitude morale de ce qui devrait maintenant être fait consciemment pour améliorer le monde. Elle semble réunir individu et collectif d'une manière qui est censée rendre impossible tout renoncement.

 

Auteur: Alexander James

Info: Daily Skeptic. Quatre hypothèses sur l'élite mondiale laïque-corporatiste, 20 février 2023. Trad Mg, avec DeePL

[ état des lieux ]

 

Commentaires: 0

Ajouté à la BD par miguel

microbiote

Un chef d'orchestre de la subtile symphonie d'Evolution

Le biologiste Richard Lenski pensait que son expérience à long terme sur l'évolution pourrait durer 2 000 générations. Près de trois décennies et plus de 65 000 générations plus tard, il est toujours étonné par " l’incroyable inventivité " de l’évolution.

Au début de sa carrière, le biologiste décoré Richard Lenski pensait qu'il pourrait être contraint d'évoluer. Après l’annulation de sa subvention de recherche postdoctorale, Lenski a commencé à envisager provisoirement d’autres options. Avec un enfant et un deuxième en route, Lenski a assisté à un séminaire sur l'utilisation de types spécifiques de données dans un contexte actuariel* – le même type de données avec lequel il avait travaillé lorsqu'il était étudiant diplômé. Lenski a récupéré la carte de visite du conférencier, pensant qu'il pourrait peut-être mettre à profit son expérience dans une nouvelle carrière.

"Mais ensuite, comme c'est parfois le cas - et j'ai eu beaucoup de chance - le vent a tourné", a déclaré Lenski à Quanta Magazine dans son bureau de la Michigan State University. " Nous avons obtenu le renouvellement de la subvention et peu de temps après, j'ai commencé à recevoir des offres pour être professeur. 

Lenski, professeur d'écologie microbienne à l'État du Michigan, est surtout connu pour ses travaux sur ce que l'on appelle l' expérience d'évolution à long terme . Le projet, lancé en 1988, examine l'évolution en action. Lui et les membres de son laboratoire ont cultivé 12 populations d' E. coli en continu depuis plus de 65 000 générations, suivant le développement et les mutations des 12 souches distinctes.

Les résultats ont attiré l’attention et les éloges – y compris une bourse " genius " MacArthur, que Lenski a reçue en 1996 – à la fois pour l’énormité de l’entreprise et pour les découvertes intrigantes que l’étude a produites. Plus particulièrement, en 2003, Lenski et ses collaborateurs ont réalisé qu'une souche d' E. coli avait développé la capacité d'utiliser le citrate comme source d'énergie, ce qu'aucune population précédente d' E. coli n'était capable de faire.

Lenski s'intéresse également aux organismes numériques, c'est-à-dire aux programmes informatiques conçus pour imiter le processus d'évolution. Il a joué un rôle déterminant dans l’ouverture du Beacon Center dans l’État du Michigan, qui donne aux informaticiens et aux biologistes évolutionnistes l’opportunité de forger des collaborations uniques.

Quanta Magazine a rencontré Lenski dans son bureau pour parler de ses propres intérêts évolutifs dans le domaine de la biologie évolutive – et du moment où il a presque mis fin à l'expérience à long terme. 

QUANTA MAGAZINE : Quels types de questions ont été les moteurs de votre carrière ?

RICHARD LENSKI : Une question qui m'a toujours intrigué concerne la reproductibilité ou la répétabilité de l'évolution . Stephen Jay Gould, paléontologue et historien des sciences, a posé cette question : si nous pouvions rembobiner la bande de la vie sur Terre, à quel point serait-elle similaire ou différente si nous regardions l'ensemble du processus se reproduire ? L’expérimentation à long terme que nous menons nous a permis de rassembler de nombreuses données sur cette question.

Alors, l’évolution est-elle reproductible ?

Oui et non! Je dis parfois aux gens que c'est une question fascinante et motivante, mais à un certain niveau, c'est une question terrible, et on ne dirait jamais à un étudiant diplômé de s'y poser. C’est parce qu’elle est très ouverte et qu’il n’y a pas de réponse très claire.

Grâce à cette expérience à long terme, nous avons vu de très beaux exemples de choses remarquablement reproductibles, et d'autre part des choses folles où une population s'en va et fait des choses qui sont complètement différentes des 11 autres populations de la planète dans l' expérience.

Comment vous est venue l’idée de cette expérience à long terme ?

Je travaillais déjà depuis plusieurs années sur l'évolution expérimentale des bactéries, ainsi que des virus qui infectent les bactéries. C'était fascinant, mais tout est devenu si compliqué si vite que j'ai dit : " Réduisons l'évolution à sa plus simple expression. " En particulier, j'ai voulu approfondir cette question de reproductibilité ou répétabilité de l'évolution. Et pour pouvoir l'examiner, je voulais un système très simple. Lorsque j'ai commencé l'expérience à long terme, mon objectif initial était de l'appeler expérience à long terme lorsque j'arriverais à 2 000 générations.

Combien de temps cela vous a-t-il pris ?

La durée réelle de l'expérience a duré environ 10 ou 11 mois, mais au moment où nous avons collecté les données, les avons rédigées et publié l'article, il nous a fallu environ deux ans et demi. À ce moment-là, l’expérience avait déjà dépassé 5 000 générations et j’ai réalisé qu'il fallait la poursuivre.

Pensiez-vous que l’expérience se poursuivrait aussi longtemps ?

Non, non... il y a eu une période de cinq ans, peut-être de la fin des années 90 au début des années 2000, pendant laquelle j'ai réfléchi à la possibilité d'arrêter l'expérience. C'était pour plusieurs raisons différentes. La première était que je devenais accro à cette autre façon d’étudier l’évolution, qui impliquait d’observer l’évolution dans des programmes informatiques auto-réplicatifs, ce qui était absolument fascinant. Soudain, j'ai découvert cette manière encore plus brillante d'étudier l'évolution, où elle pouvait s'étendre sur encore plus de générations et faire encore plus d'expériences, apparemment plus soignées.

Comment votre vision de l’étude de l’évolution via ces organismes numériques a-t-elle évolué au fil du temps ?

J’ai eu ce genre d’" amour de chiot " lorsque j’en ai entendu parler pour la première fois. Au début, c'était tellement extraordinairement intéressant et excitant de pouvoir regarder des programmes auto-répliquants, de pouvoir changer leur environnement et d'observer l'évolution se produire.

L’un des aspects les plus passionnants de l’évolution numérique est qu’elle montre que nous considérons l’évolution comme une affaire de sang, d’intestins, d’ADN, d’ARN et de protéines. Mais l’idée d’évolution se résume en réalité à des idées très fondamentales d’hérédité, de réplication et de compétition. Le philosophe des sciences Daniel Dennett a souligné que nous considérons l’évolution comme cette instanciation, cette forme de vie biologique, mais que ses principes sont bien plus généraux que cela.

Je dirais que mes dernières orientations de recherche ont consisté principalement à discuter avec des collègues très intelligents et à siéger à des comités d'étudiants diplômés qui utilisent ces systèmes. Je suis moins impliqué dans la conception d'expériences ou dans la formulation d'hypothèses spécifiques, car ce domaine évolue extrêmement rapidement. Je pense que j'ai eu beaucoup de chance de pouvoir cueillir certains des fruits les plus faciles à trouver, mais maintenant j'ai l'impression d'être là en tant que biologiste, critiquant peut-être des hypothèses, suggérant des contrôles qui pourraient être effectués dans certaines expériences.

Votre intérêt pour les organismes numériques est donc l’une des raisons pour lesquelles vous avez envisagé de mettre fin à l’expérience à long terme. Quel était l'autre ?

À ce stade, l’autre chose qui était un peu frustrante dans les lignes à long terme était que la vitesse à laquelle les bactéries évoluaient ralentissait. À la façon dont j’y pensais, c’était presque comme si l’évolution s’était arrêtée. Je pensais que c'était tout simplement un environnement trop simple et qu'ils n'avaient pas grand-chose à faire de plus.

Donc ces deux choses différentes m’ont fait réfléchir à arrêter l’expérience. Et j'ai parlé à quelques collègues et ils m'ont dit en gros : tu ne devrais pas faire ça. D’ailleurs, j’en ai parlé avec ma femme, Madeleine, lorsque je commençais à m’intéresser beaucoup à ces organismes numériques – nous étions d’ailleurs en congé sabbatique en France à cette époque – et je lui ai dit : " Peut-être que je devrais appeler chez moi et fermer le labo. " Et elle a dit : " Je ne pense pas que tu devrais faire ça. "

Pourquoi votre femme et vos collègues ont-ils eu cette réaction ?

L’expérience s’était déjà avérée très rentable au sens scientifique, fournissant des données très riches sur la dynamique du changement évolutif. C’était plus ou moins unique dans les échelles de temps étudiées. Je pense donc que c’était de très bons conseils qu’ils m’ont donné. Je ne sais pas si j’aurais déjà pu débrancher moi-même. J'étais certainement un peu frustré et j'y pensais – mais de toute façon, les gens ont dit non !

Avez-vous dépassé le palier où vous disiez avoir l’impression que les organismes n’évoluaient pas tellement ?

C’est en fait l’une des découvertes vraiment intéressantes de l’expérience. Lorsque j’ai commencé l’expérience à long terme, je pensais que les bactéries atteindraient rapidement une sorte de limite à leur croissance. Il y a seulement quelques années, nous avons commencé à réaliser que les bactéries seraient toujours capables de dépasser tout ce que nous avions déduit dans le passé quant à leur limite stricte. J’ai réalisé que nous n’y réfléchissions tout simplement pas de la bonne manière. Même dans l’environnement le plus simple, il est toujours possible pour les organismes de réaliser n’importe quelle étape de leur métabolisme, ou n’importe quelle étape de leur biochimie, un peu mieux. Et la sélection naturelle, même si elle ne réussit pas à chaque étape, favorisera toujours, à long terme, ces améliorations subtiles.

Une lignée de bactéries a développé la capacité d’utiliser le citrate comme source de nourriture. Est-ce que cela s'est produit avant ou après que vous envisagiez d'arrêter l'expérience ?

C’est l’une des choses qui m’a fait réaliser que nous n’arrêterions pas l’expérience. En 2003, une lignée a développé la capacité d’utiliser le citrate. Cela a changé la donne : se rendre compte que même dans cet environnement extrêmement simple, les bactéries devaient évoluer et comprendre certaines choses importantes.

J’aime dire que les bactéries dînaient tous les soirs sans se rendre compte qu’il y avait ce bon dessert citronné juste au coin de la rue. Et jusqu’à présent, même après 65 000 générations, seule une population sur 12 a compris comment consommer ce citrate.

Vous avez également mentionné que certaines populations au sein de votre expérience ont développé des mutations à un rythme plus élevé. A quoi cela ressemble-t-il?

Après plus de 60 000 générations, six des 12 populations ont évolué pour devenir hypermutables. Elles ont développé des changements dans la réparation de leur ADN et dans les processus métaboliques de l'ADN, ce qui les amène à avoir de nouvelles mutations quelque part de l'ordre de 100 fois la vitesse à laquelle l'ancêtre [au début de l'expérience] le faisait.

C'est un processus très intéressant, car il est à la fois bon et mauvais du point de vue des bactéries. C'est mauvais car la plupart des mutations sont nocives ou, au mieux, neutres. Seule une rare pépite dans cette mine est une mutation bénéfique. Les bactéries qui ont le taux de mutation le plus élevé sont un peu plus susceptibles de découvrir l’une de ces pépites. Mais d’un autre côté, ils sont également plus susceptibles de produire des enfants et petits-enfants porteurs de mutations délétères.

La lignée capable de consommer du citrate faisait-elle partie du groupe qui avait évolué pour devenir hypermutable ?

C'est une excellente question. La lignée qui a développé la capacité d’utiliser le citrate n’avait pas un taux de mutation élevé. Il est intéressant de noter qu’il est devenu l’un de ceux présentant un taux de mutation plus élevé, mais seulement après avoir développé la capacité d’utiliser le citrate. Cela est cohérent avec l’avantage du taux de mutation plus élevé – la capacité supplémentaire d’exploration. Les bactéries étaient en fait assez mauvaises pour utiliser le citrate au départ, donc il y avait beaucoup d'opportunités après qu'elles aient développé la capacité d'utiliser le citrate pour affiner cette capacité.

Comment l’expérience à long terme vous aide-t-elle à comprendre l’évolution de la vie à plus grande échelle ?

Pour moi, l’une des leçons de cette expérience à long terme a été de constater à quel point la vie peut être riche et intéressante, même dans l’environnement le plus ennuyeux et le plus simple. Le fait que l’évolution puisse générer cette diversité et découvrir des portes légèrement entrouvertes qu’elle peut franchir témoigne de l’incroyable inventivité de l’évolution. Et s’il peut être si inventif et créatif à cette minuscule échelle spatiale et temporelle, et dans un environnement aussi ennuyeux, cela me suscite encore plus de respect, quand je pense à quel point il est remarquable dans la nature.

Qu’est-ce qui vous a le plus surpris dans ce projet ?

Que ça continue après toutes ces années. L’un de mes objectifs dans la vie est de faire en sorte que l’expérience continue. J'aimerais lever une dotation pour poursuivre l'expérience à perpétuité.

Qu’espérez-vous pour l’expérience à long terme dans le futur ?

J’espère que ce projet apportera bien d’autres surprises. Par exemple, deux lignées coexistent depuis 60 000 générations dans l’une des populations, où l’une se nourrit du produit que l’autre génère. Je pense qu'il est fascinant de se demander si, à un moment donné, cela pourrait se transformer en quelque chose qui ressemble davantage à une interaction prédateur-proie. Ce n’est certainement pas hors du domaine des possibles. Si cela arriverait un jour, je ne sais pas.

Cela a également été une immense joie de travailler avec des étudiants, des postdoctorants et des collaborateurs, et de les voir grandir et se développer. C'est vraiment la plus grande joie pour moi d'être un scientifique. J'aime dire aux gens que je suis bigame. J'ai deux familles : ma famille de laboratoire et ma famille biologique, et elles sont toutes les deux incroyablement merveilleuses.

Auteur: Internet

Info: Logan Zillmer pour Quanta Magazine - * Relatif aux méthodes mathématiques des actuaires

[ microbiome ] [ bio-informatique ] [ plasticité ] [ dépassement ] [ tâtonnement ] [ élargissement ] [ gaspillage ] [ adaptation ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-animal

CAPACITÉS COGNITIVES DU DAUPHIN

Au-delà de leur physiologie cérébrale, les dauphins font preuve de capacités extrêmement rares dans le domaine animal. Comme les humains, les dauphins peuvent imiter, aussi bien sur le mode gestuel que sur le mode vocal, ce qui est soi est déjà exceptionnel. Si certains oiseaux peuvent imiter la voix, ils n’imitent pas les attitudes. Les singes, de leur côté, imitent les gestes et non les mots. Le dauphin est capable des deux. Les dauphins chassent les poissons et se nourrissent d’invertébrés, mais ils usent pour ce faire de techniques complexes et variables, acquises durant l’enfance grâce à l’éducation. L’usage des outils ne leur est pas inconnu : un exemple frappant de cette capacité est la façon dont deux dauphins captifs s’y sont pris pour extraire une murène cachée dans le creux d’un rocher à l’intérieur de leur bassin. L’un d’eux a d’abord attrapé un petit poisson scorpion très épineux, qui passait dans le secteur, et l’ayant saisi dans son rostre, s’en est servi comme d’un outil pour extraire la murène de sa cachette. S’exprimant à propos de leur intelligence, le Dr Louis M.Herman, Directeur du Kewalo Basin Marine Mammal Laboratory de l’Université d’Hawaii, note que les dauphins gardent en mémoire des événements totalement arbitraires, sans le moindre rapport avec leur environnement naturel et sans aucune incidence biologique quant à leur existence.

Recherches sur le langage des dauphins

Beaucoup d’humains trouvent intrigante l’idée de communiquer avec d’autres espèces. A cet égard, le dauphin constitue un sujet attractif, particulièrement dans le domaine du langage animal, du fait de ses capacités cognitives et de son haut degré de socialisation. Dès le début des années soixante, c’est le neurologue John Lilly qui, le premier, s’est intéressé aux vocalisations des cétacés. Les recherches de Lilly se poursuivirent durant toute une décennie, tout en devenant de moins en moins conventionnelles. Le savant alla même jusqu’à tester les effets du L.S.D. sur les émissions sonores des dauphins et dut finalement interrompre ses recherches en 1969, lorsque cinq de ses dauphins se suicidèrent en moins de deux semaines. Malheureusement, nombre de découvertes ou de déclarations de John Lilly sont franchement peu crédibles et ont jeté le discrédit sur l’ensemble des recherches dans le domaine du langage animal. De ce fait, ces recherches sont aujourd’hui rigoureusement contrôlées et très méticuleuses, de sorte que les assertions des scientifiques impliquées dans ce secteur restent désormais extrêmement réservées.

Louis Herman est sans doute l’un des plus importants chercheurs à mener des études sur la communication et les capacités cognitives des dauphins. Son instrument de travail privilégié est la création de langues artificielles, c’est-à-dire de langages simples crées pour l’expérience, permettant d’entamer des échanges avec les dauphins. Louis Herman a surtout concentré ses travaux sur le phénomène de la "compréhension" du langage bien plus que sur la "production" de langage, arguant que la compréhension est le premier signe d’une compétence linguistique chez les jeunes enfants et qu’elle peut être testée de façon rigoureuse. En outre, la structure grammaticale qui fonde les langages enseignés s’inspire le plus souvent de celle de l’anglais. Certains chercheurs ont noté qu’il aurait été mieux venu de s’inspirer davantage de langues à tons ou à flexions, comme le chinois, dont la logique aurait parue plus familière aux cétacés. Dans les travaux d’Herman, on a appris à deux dauphins, respectivement nommés Akeakamai (Ake) et Phoenix, deux langues artificielles. Phoenix a reçu l’enseignement d’un langage acoustique produit par un générateur de sons électroniques. Akeakamai, en revanche, a du apprendre un langage gestuel (version simplifiée du langage des sourds-muets), c’est-à-dire visuel. Les signaux de ces langues artificiels représentent des objets, des modificateurs d’objet (proche, loin, gros, petit, etc.) ou encore des actions. Ni les gestes ni les sons ne sont sensés représenter de façon analogique les objets ou les termes relationnels auxquels ils se réfèrent. Ces langages utilisent également une syntaxe, c’est-à-dire des règles de grammaire simples, ce qui signifie que l’ordre des mots influe sur le sens de la phrase. Phoenix a appris une grammaire classique, enchaînant les termes de gauche à droite (sujet-verbe-complément) alors que la grammaire enseignée à Ake allait dans l’autre sens et exigeait de sa part qu’elle voit l’ensemble du message avant d’en comprendre le sens correctement. Par exemple, dans le langage gestuel de Ake, la séquence des signaux PIPE-SURFBOARD-FETCH ("tuyau – planche à surf – apporter") indiquait l’ordre d’amener la planche de surf jusqu’au tuyau, alors que SURFBOARD-PIPE-FETCH ("planche-tuyau- rapporter") signifiait qu’il fallait, au contraire, amener le tuyau jusqu’ à la planche de surf. Phoenix et Ake ont ainsi appris environ 50 mots, lesquels, permutés l’un avec l’autre au sein de séquences courtes, leur permirent bientôt de se servir couramment de plus de mille phrases, chacune produisant une réponse neuve et non apprise.

Compte tenu de l’influence possible de la position dans l’espace des expérimentateurs sur l’expérimentation, les lieux d’apprentissage et les entraîneurs se voyaient changés de session en session. Dans le même temps, des observateurs "aveugles", qui ne connaissaient pas les ordres et ne voyaient pas les entraîneurs, notaient simplement le comportement des dauphins, afin de vérifier ensuite qu’il correspondait bien aux commandes annoncées. Les entraîneurs allaient jusqu’à porter des cagoules noires, afin de ne révéler aucune expression ou intention faciale et se tenaient immobiles, à l’exception des mains. Les dauphins se montrèrent capables de reconnaître les signaux du langage gestuels aussi bien lorsqu’il étaient filmés puis rediffusés sur un écran vidéo que lorsque ces mêmes signes étaient exécutés à l’air libre par l’entraîneur. Même le fait de ne montrer que des mains pâles sur un fond noir ou des taches de lumière blanche reproduisant la dynamique des mains, a largement suffi aux dauphins pour comprendre le message ! Il semble donc que les dauphins répondent davantage aux symboles abstraits du langage qu’à tout autre élément de la communication.

Par ailleurs, si les dauphins exécutent aisément les ordres qu’on leur donne par cette voie gestuelle, ils peuvent également répondre de façon correcte à la question de savoir si un objet précis est présent ou absent, en pressant le levier approprié (le clair pour PRESENT, le sombre pour ABSENT). Ceci démontre évidement leur faculté de "déplacement mental", qui consiste à manipuler l’image d’objets qui ne se trouvent pas dans les environs. Des expériences additionnelles ont conduit à préciser comment le dauphin conçoit l’étiquetage des objets, comment il les qualifie de son point de vue mental. "Nous avons constaté" nous apprend Louis Herman, "qu’au regard du dauphin, le signe CERCEAU n’est pas seulement le cerceau précis utilisé dans le cadre de cette expérience précise, c’est plutôt TOUT OBJET DE GRANDE TAILLE PERCE D’UN GRAND TROU AU MILIEU. Un seul concept général associe donc pour le dauphin les cerceaux ronds, carrés, grands et petits, flottants ou immergés, que l’on utilise généralement lors de la plupart des expériences". Parmi les choses que le Dr Herman estime n’avoir pu enseigner aux dauphins, il y a le concept du "non" en tant que modificateur logique. L’ordre de "sauter au-dessus d’une non-balle" indique en principe que le dauphin doit sauter au-dessus de n’importe quoi, sauf d’une balle ! Mais cela n’est pas compris, pas plus, affirme toujours Herman, que le concept de "grand" ou de "petit".

Communication naturelle chez les dauphins

On sait que les dauphins émettent de nombreux sifflements, de nature très diverse. La fonction de la plupart d’entre eux demeure toujours inconnue mais on peut affirmer aujourd’hui que la moitié d’entre eux au moins constitue des "signatures sifflées". Un tel signal se module dans une fourchette de 5 à 20 kilohertz et dure moins d’une seconde. Il se distingue des autres sifflements - et de la signature de tous les autres dauphins – par ses contours particuliers et ses variations de fréquences émises sur un temps donné, ainsi que le montrent les sonogrammes. Les jeunes développent leur propre signature sifflée entre l’âge de deux mois et d’un an. Ces sifflements resteront inchangés douze ans au moins et le plus souvent pour la durée entière de la vie de l’animal. Par ailleurs, au-delà de leur seule fonction nominative, certains des sifflements du dauphin apparaissent comme de fidèles reproductions de ceux de leurs compagnons et servent manifestement à interpeller les autres par leur nom. Lorsqu’ils sont encore très jeunes, les enfants mâles élaborent leur propre signature sifflée, qui ressemble fort à celle de leur mère. En revanche, les jeunes femelles doivent modifier les leurs, précisément pour se distinguer de leur mère.

Ces différences reflètent sans doute celles qui existent dans les modes de vie des femelles et des mâles. Puisque les filles élèvent leur propre enfant au sein du groupe maternel, un sifflement distinct est donc indispensable pour pouvoir distinguer la maman de la grand mère. La signature sifflée masculine, presque identique à celle de la mère, permet tout au contraire d’éviter l’inceste et la consanguinité. Le psychologue James Ralston et l’informaticien Humphrey Williams ont découvert que la signature sifflée pouvait véhiculer bien plus que la simple identité du dauphin qui l’émet. En comparant les sonogrammes des signatures sifflées durant les activités normales et lors de situations stressantes, ils découvrirent que la signature sifflée, tout en conservant sa configuration générale, pouvait changer en termes de tonalité et de durée et transmettre ainsi des informations sur l’état émotionnel de l’animal. Les modifications causé par cet état émotionnel sur les intonations de la signature varient en outre selon les individus. Les dauphins semblent donc utiliser les sifflement pour maintenir le contact lorsqu’ils se retrouvent entre eux ou lorsqu’ils rencontrent d’autres groupes, mais aussi, sans doute, pour coordonner leur activités collectives. Par exemple, des sifflements sont fréquemment entendus lorsque le groupe entier change de direction ou d’activité.

De son côté, Peter Tyack (Woods Hole Oceanographic Institute) a travaillé aux côtés de David Staelin, professeur d’ingénierie électronique au M.I.T., afin de développer un logiciel d’ordinateur capable de détecter les "matrices sonores" et les signaux répétitifs parmi le concert de couinements, piaulements et autres miaulements émis par les dauphins. Une recherche similaire est menée par l’Université de Singapore (Dolphin Study Group). Avec de tels outils, les chercheurs espèrent en apprendre davantage sur la fonction précise des sifflements.

Dauphins sociaux

Les observations menées sur des individus sauvages aussi bien qu’en captivité révèlent un très haut degré d’ordre social dans la société dauphin. Les femelles consacrent un an à leur grossesse et puis les trois années suivantes à élever leur enfant. Les jeunes s’éloignent en effet progressivement de leur mère dès leur troisième année, restant près d’elle jusqu’à six ou dix ans ! – et rejoignent alors un groupe mixte d’adolescents, au sein duquel ils demeurent plusieurs saisons. Parvenus à l’âge pleinement adulte, vers 15 ans en moyenne, les mâles ne reviennent plus que rarement au sein du "pod" natal. Cependant, à l’intérieur de ces groupes d’adolescents, des liens étroits se nouent entre garçons du même âge, qui peuvent persister la vie entière. Lorsque ces mâles vieillissent, ils ont tendance à s’associer à une bande de femelles afin d’y vivre une paisible retraite. Bien que les dauphins pratiquent bien volontiers la promiscuité sexuelle, les familles matriarcales constituent de fortes unités de base de la société dauphin. Lorsqu’une femelle donne naissance à son premier enfant, elle rejoint généralement le clan de sa propre mère et élève son delphineau en compagnie d’autres bébés, nés à la même saison. La naissance d’un nouveau-né donne d’ailleurs souvent lieu à des visites d’autres membres du groupe, mâles ou femelles, qui s’étaient séparés de leur mère depuis plusieurs années. Les chercheurs ont également observé des comportements de "baby-sitting", de vieilles femelles, des soeurs ou bien encore d’autres membres du groupe, voire même un ancien mâle prenant alors en charge la surveillance des petits. On a ainsi pu observer plusieurs dauphins en train de mettre en place une véritable "cour de récréation", les femelles se plaçant en U et les enfants jouant au milieu ! (D’après un texte du Dr Poorna Pal)

Moi, dauphin.

Mais qu’en est-il finalement de ce moi central au coeur de ce monde circulaire sans relief, sans couleurs constitué de pixels sonores ? C’est là que les difficultés deviennent insurmontables tant qu’un "contact" n’aura pas été vraiment établi par le dialogue car le "soi" lui-même, le "centre de la personne" est sans doute construit de façon profondément différente chez l’homme et chez le dauphin. H.Jerison parle carrément d’une "conscience collective". Les mouvements de groupe parfaitement coordonnés et quasi-simultanés, à l’image des bancs de poissons ou des troupeaux de gnous, que l’on observe régulièrement chez eux, suppose à l’évidence une pensée "homogène" au groupe, brusquement transformé en une "personne plurielle". On peut imaginer ce sentiment lors d’un concert de rock ou d’une manifestation, lorsqu’une foule entière se tend vers un même but mais ces attitudes-là sont grossières, globales, peu nuancées. Toute autre est la mise à l’unisson de deux, trois, cinq (les "gangs" de juvéniles mâles associés pour la vie) ou même de plusieurs centaines de dauphins ensemble (de formidables "lignes de front" pour la pêche, qui s’étendent sur des kilomètres) et là, bien sûr, nous avons un comportement qui traduit un contenu mental totalement inconnu de nous. On sait que lorsqu’un dauphin voit, tout le monde l’entend. En d’autres termes chaque fois qu’un membre du groupe focalise son faisceau de clicks sur une cible quelconque, l’écho lui revient mais également à tous ceux qui l’entourent. Imaginons que de la même manière, vous regardiez un beau paysage. La personne qui vous tournerait le dos et se tiendrait à l’arrière derrière vous pourrait le percevoir alors aussi bien que vous le faites. Cette vision commune, qui peut faire croire à de la télépathie, n’est pas sans conséquence sur le contenu mental de chaque dauphin du groupe, capable de fusionner son esprit à ceux des autres quand la nécessité s’en fait sentir. Ceci explique sans doute la formidable capacité d’empathie des dauphins mais aussi leur fidélité "jusqu’à la mort" quand il s’agit de suivre un compagnon qui s’échoue. Chez eux, on ne se sépare pas plus d’un ami en détresse qu’on ne se coupe le bras quand il est coincé dans une portière de métro ! En d’autres circonstances, bien sûr, le dauphin voyage seul et il "rassemble" alors sa conscience en un soi individualisé, qui porte un nom, fait des choix et s’intègre dans une lignée. Il en serait de même pour l’homme si les mots pouvaient faire surgir directement les images qu’ils désignent dans notre cerveau, sans passer par le filtre d’une symbolisation intermédiaire. Si quelqu’un me raconte sa journée, je dois d’abord déchiffrer ses mots, les traduire en image et ensuite me les "représenter". Notre système visuel étant indépendant de notre système auditif, un processus de transformation préalable est nécessaire à la prise de conscience du message. Au contraire, chez le dauphin, le système auditif est à la fois un moyen de communication et un moyen de cognition "constructiviste" (analyse sensorielle de l’environnement). La symbolisation n’est donc pas nécessaire aux transferts d’images, ce qui n’empêche nullement qu’elle puisse exister au niveau des concepts abstraits. Quant à cette conscience fusion-fission, cet "ego fluctuant à géométrie variable", ils préparent tout naturellement le dauphin à s’ouvrir à d’autres consciences que la sienne. D’où sans doute, son besoin de nous sonder, de nous comprendre et de nous "faire" comprendre. Un dauphin aime partager son cerveau avec d’autres, tandis que l’homme vit le plus souvent enfermé dans son crâne. Ces êtres-là ont décidément beaucoup à nous apprendre...

Auteur: Internet

Info: http://www.dauphinlibre.be/dauphins-cerveau-intelligence-et-conscience-exotiques

[ comparaisons ] [ mimétisme ] [ sémiotique ] [ intelligence grégaire ]

 

Commentaires: 0

univers protonique

Forces tourbillonnantes et pressions d’écrasement mesurées dans le proton

Des expériences très attendues qui utilisent la lumière pour imiter la gravité révèlent pour la première fois la répartition des énergies, des forces et des pressions à l’intérieur d’une particule subatomique.

(Image : Les forces poussent dans un sens près du centre du proton et dans l’autre sens près de sa surface.)

Les physiciens ont commencé à explorer le proton comme s’il s’agissait d’une planète subatomique. Les cartes en coupe affichent de nouveaux détails de l'intérieur de la particule. Le noyau du proton présente des pressions plus intenses que dans toute autre forme connue de matière. À mi-chemin de la surface, des tourbillons de force s’affrontent les uns contre les autres. Et la " planète " dans son ensemble est plus petite que ne le suggéraient les expériences précédentes.

Les recherches expérimentales marquent la prochaine étape dans la quête visant à comprendre la particule qui ancre chaque atome et constitue la majeure partie de notre monde.

"Nous y voyons vraiment l'ouverture d'une direction complètement nouvelle qui changera notre façon de considérer la structure fondamentale de la matière", a déclaré Latifa Elouadrhiri , physicienne au Thomas Jefferson National Accelerator Facility à Newport News, en Virginie, qui participe à l'effort.

Les expériences jettent littéralement un nouvel éclairage sur le proton. Au fil des décennies, les chercheurs ont méticuleusement cartographié l’influence électromagnétique de la particule chargée positivement. Mais dans la nouvelle recherche, les physiciens du Jefferson Lab cartographient plutôt l'influence gravitationnelle du proton, à savoir la répartition des énergies, des pressions et des contraintes de cisaillement, qui courbent le tissu espace-temps dans et autour de la particule. Pour ce faire, les chercheurs exploitent une manière particulière par laquelle des paires de photons, des particules de lumière, peuvent imiter un graviton, la particule supposée qui transmet la force de gravité. En envoyant un ping au proton avec des photons, ils déduisent indirectement comment la gravité interagirait avec lui, réalisant ainsi un rêve vieux de plusieurs décennies consistant à interroger le proton de cette manière alternative.

"C'est un tour de force", a déclaré Cédric Lorcé , physicien à l'Ecole Polytechnique en France, qui n'a pas participé aux travaux. "Expérimentalement, c'est extrêmement compliqué." 

Des photons aux gravitons


Les physiciens ont appris énormément sur le proton au cours des 70 dernières années en le frappant à plusieurs reprises avec des électrons. Ils savent que sa charge électrique s’étend sur environ 0,8 femtomètre, ou quadrillionièmes de mètre, à partir de son centre. Ils savent que les électrons entrants ont tendance à être projetés sur l’un des trois quarks – des particules élémentaires avec des fractions de charge – qui bourdonnent à l’intérieur. Ils ont également observé la conséquence profondément étrange de la théorie quantique où, lors de collisions plus violentes, les électrons semblent rencontrer une mer mousseuse composée de bien plus de quarks ainsi que de gluons, porteurs de la force dite forte, qui colle les quarks ensemble.

Toutes ces informations proviennent d’une seule configuration : vous lancez un électron sur un proton, et les particules échangent un seul photon – le porteur de la force électromagnétique – et se repoussent. Cette interaction électromagnétique indique aux physiciens comment les quarks, en tant qu'objets chargés, ont tendance à s'organiser. Mais le proton a bien plus à offrir que sa charge électrique.

(Photo : Latifa Elouadrhiri, scientifique principale du laboratoire Jefferson, a dirigé la collecte de données à partir desquelles elle et ses collaborateurs calculent désormais les propriétés mécaniques du proton.) 

" Comment la matière et l'énergie sont-elles distribuées ? " a demandé Peter Schweitzer , physicien théoricien à l'Université du Connecticut. "Nous ne savons pas."

Schweitzer a passé la majeure partie de sa carrière à réfléchir au côté gravitationnel du proton. Plus précisément, il s'intéresse à une matrice de propriétés du proton appelée tenseur énergie-impulsion. " Le tenseur énergie-impulsion sait tout ce qu'il y a à savoir sur la particule ", a-t-il déclaré.

Dans la théorie de la relativité générale d'Albert Einstein, qui présente l'attraction gravitationnelle comme des objets suivant des courbes dans l'espace-temps, le tenseur énergie-impulsion indique à l'espace-temps comment se plier. Elle décrit, par exemple, la disposition de l'énergie (ou, de manière équivalente, de la masse) – la source de ce qui est la part du lion de la torsion de l'espace-temps. Elle permet également d'obtenir des informations sur la répartition de la dynamique, ainsi que sur les zones de compression ou d'expansion, ce qui peut également donner une légère courbure à l'espace-temps.

Si nous pouvions connaître la forme de l'espace-temps entourant un proton, élaborée indépendamment par des physiciens russes et   américains dans les années 1960, nous pourrions en déduire toutes les propriétés indexées dans son tenseur énergie-impulsion. Celles-ci incluent la masse et le spin du proton, qui sont déjà connus, ainsi que l'agencement des pressions et des forces du proton, une propriété collective que les physiciens nomment " Druck term ", d'après le mot " pression"  en allemand. Ce terme est " aussi important que la masse et la rotation, et personne ne sait ce que c'est ", a déclaré Schweitzer – même si cela commence à changer.

Dans les années 60, il semblait que la mesure du tenseur énergie-momentum et le calcul du terme de Druck nécessiteraient une version gravitationnelle de l'expérience de diffusion habituelle : On envoie une particule massive sur un proton et on laisse les deux s'échanger un graviton - la particule hypothétique qui constitue les ondes gravitationnelles - plutôt qu'un photon. Mais en raison de l'extrême subtilité de la gravité, les physiciens s'attendent à ce que la diffusion de gravitons se produise 39 fois plus rarement que la diffusion de photons. Les expériences ne peuvent pas détecter un effet aussi faible.

"Je me souviens avoir lu quelque chose à ce sujet quand j'étais étudiant", a déclaré Volker Burkert , membre de l'équipe du Jefferson Lab. Ce qu’il faut retenir, c’est que " nous ne pourrons probablement jamais rien apprendre sur les propriétés mécaniques des particules ".Gravitation sans gravité

Les expériences gravitationnelles sont encore inimaginables aujourd’hui. Mais les recherches menées en fin des années 1990 et au début des années 2000 par les physiciens Xiangdong Ji et, travaillant séparément, feu Maxim Polyakov, ont révélé une solution de contournement.

Le schéma général est le suivant. Lorsque vous tirez légèrement un électron sur un proton, il délivre généralement un photon à l'un des quarks et le détourne. Mais lors d’un événement sur un milliard, quelque chose de spécial se produit. L’électron entrant envoie un photon. Un quark l'absorbe puis émet un autre photon un battement de cœur plus tard. La principale différence est que cet événement rare implique deux photons au lieu d’un : des photons entrants et sortants. Les calculs de Ji et Polyakov ont montré que si les expérimentateurs pouvaient collecter les électrons, protons et photons résultants, ils pourraient déduire des énergies et des impulsions de ces particules ce qui s'est passé avec les deux photons. Et cette expérience à deux photons serait essentiellement aussi informative que l’impossible expérience de diffusion de gravitons.

Comment deux photons pourraient-ils connaître la gravité ? La réponse fait appel à des mathématiques très complexes. Mais les physiciens proposent deux façons de comprendre pourquoi cette astuce fonctionne.

Les photons sont des ondulations dans le champ électromagnétique, qui peuvent être décrites par une seule flèche, ou vecteur, à chaque emplacement de l'espace indiquant la valeur et la direction du champ. Les gravitons seraient des ondulations dans la géométrie de l’espace-temps, un domaine plus complexe représenté par une combinaison de deux vecteurs en chaque point. Capturer un graviton donnerait aux physiciens deux vecteurs d’informations. En dehors de cela, deux photons peuvent remplacer un graviton, puisqu’ils transportent également collectivement deux vecteurs d’information.

Une interprétation mathématiques alternative est celle-ci. Pendant le moment qui s'écoule entre le moment où un quark absorbe le premier photon et celui où il émet le second, le quark suit un chemin à travers l'espace. En sondant ce chemin, nous pouvons en apprendre davantage sur des propriétés telles que les pressions et les forces qui entourent le chemin.

"Nous ne faisons pas d'expérience gravitationnelle", a déclaré Lorcé. Mais " nous devrions obtenir un accès indirect à la manière dont un proton devrait interagir avec un graviton ". 

Sonder la planète Proton
En 2000, les physiciens du Jefferson Lab ont réussi à obtenir quelques résultats de diffusion à deux photons. Cette démonstration de faisabilité les a incités à construire une nouvelle expérience et, en 2007, ils ont fait entrer des électrons dans des protons suffisamment de fois pour obtenir environ 500 000 collisions imitant les gravitons. L'analyse des données expérimentales a pris une décennie de plus.

À partir de leur index des propriétés de flexion de l’espace-temps, l’équipe a extrait le terme insaisissable de Druck, publiant son estimation des pressions internes du proton dans Nature en 2018.

Ils ont découvert qu’au cœur du proton, la force puissante génère des pressions d’une intensité inimaginable : 100 milliards de milliards de milliards de pascals, soit environ 10 fois la pression au cœur d’une étoile à neutrons. Plus loin du centre, la pression chute et finit par se retourner vers l'intérieur, comme c'est nécessaire pour que le proton ne se brise pas. "Voilà qui résulte de l'expérience", a déclaré Burkert. "Oui, un proton est réellement stable." (Cette découverte n’a cependant aucune incidence sur la désintégration des protons , ce qui implique un type d’instabilité différent prédit par certaines théories spéculatives.)

Le groupe Jefferson Lab a continué à analyser le terme Druck. Ils ont publié une estimation des forces de cisaillement (forces internes poussant parallèlement à la surface du proton) dans le cadre d'une étude publiée en décembre. Les physiciens ont montré que près de son noyau, le proton subit une force de torsion qui est neutralisée par une torsion dans l’autre sens plus près de la surface. Ces mesures soulignent également la stabilité de la particule. Les rebondissements étaient attendus sur la base des travaux théoriques de Schweitzer et Polyakov. "Néanmoins, le voir émerger de l'expérience pour la première fois est vraiment stupéfiant", a déclaré Elouadrhiri.

Ils utilisent désormais ces outils pour calculer la taille du proton d'une nouvelle manière. Dans les expériences de diffusion traditionnelles, les physiciens avaient observé que la charge électrique de la particule s'étendait à environ 0,8 femtomètre de son centre (c'est-à-dire que les quarks qui la composent bourdonnent dans cette région). Mais ce " rayon de charge " présente quelques bizarreries. Dans le cas du neutron, par exemple — l'équivalent neutre du proton, dans lequel deux quarks chargés négativement ont tendance à rester profondément à l'intérieur de la particule tandis qu'un quark chargé positivement passe plus de temps près de la surface — le rayon de charge apparaît comme un nombre négatif.  "Cela ne veut pas dire que la taille est négative ; ce n'est tout simplement pas une mesure fiable ", a déclaré Schweitzer.

La nouvelle approche mesure la région de l’espace-temps considérablement courbée par le proton. Dans une prépublication qui n'a pas encore été évaluée par des pairs, l'équipe du Jefferson Lab a calculé que ce rayon pourrait être environ 25 % plus petit que le rayon de charge, soit seulement 0,6 femtomètre.

Les limites de la planète Proton

D'un point de vue conceptuel, ce type d'analyse adoucit la danse floue des quarks pour en faire un objet solide, semblable à une planète, avec des pressions et des forces agissant sur chaque point de volume. Cette planète gelée ne reflète pas entièrement le proton bouillonnant dans toute sa gloire quantique, mais c'est un modèle utile. "C'est une interprétation", a déclaré M. Schweitzer.

Et les physiciens soulignent que ces cartes initiales sont approximatives, pour plusieurs raisons.

Premièrement, mesurer avec précision le tenseur énergie-impulsion nécessiterait des énergies de collision beaucoup plus élevées que celles que Jefferson Lab peut produire. L’équipe a travaillé dur pour extrapoler soigneusement les tendances à partir des énergies relativement faibles auxquelles elles peuvent accéder, mais les physiciens ne sont toujours pas sûrs de la précision de ces extrapolations.

(Photo : Lorsqu'il était étudiant, Volker Burkert a lu qu'il était impossible de mesurer directement les propriétés gravitationnelles du proton. Aujourd'hui, il participe à une collaboration au laboratoire Jefferson qui est en train de découvrir indirectement ces mêmes propriétés.)

De plus, le proton est plus que ses quarks ; il contient également des gluons, qui se déplacent sous leurs propres pressions et forces. L'astuce à deux photons ne peut pas détecter les effets des gluons. Une autre équipe du Jefferson Lab a utilisé une astuce analogue ( impliquant une interaction double-gluon ) pour publier l'année dernière une carte gravitationnelle préliminaire de ces effets des gluons dans Nature, mais elle était également basée sur des données limitées et à faible énergie.

"C'est une première étape", a déclaré Yoshitaka Hatta, physicien au Brookhaven National Laboratory qui a eu l'idée de commencer à étudier le proton gravitationnel après les travaux du groupe Jefferson Lab en 2018.

Des cartes gravitationnelles plus précises des quarks du proton et de ses gluons pourraient être disponibles dans les années 2030, lorsque le collisionneur électron-ion, une expérience actuellement en construction à Brookhaven, entrera en activité.

Pendant ce temps, les physiciens poursuivent leurs expériences numériques. Phiala Shanahan, physicienne nucléaire et des particules au Massachusetts Institute of Technology, dirige une équipe qui calcule le comportement des quarks et des gluons à partir des équations de la force forte. En 2019, elle et ses collaborateurs ont estimé les pressions et les forces de cisaillement, et en octobre, en ont estimé le rayon, entre autres propriétés. Jusqu'à présent, leurs résultats numériques ont été largement alignés sur les résultats physiques du Jefferson Lab. "Je suis certainement très excitée par la cohérence entre les résultats expérimentaux récents et nos données", a déclaré Mme Shanahan.

Même les aperçus flous du proton obtenus jusqu'à présent ont légèrement remodelé la compréhension des chercheurs sur la particule.

Certaines conséquences sont pratiques. Au CERN, l'organisation européenne qui gère le Grand collisionneur de hadrons, le plus grand broyeur de protons au monde, les physiciens pensaient auparavant que dans certaines collisions rares, les quarks pouvaient se trouver n'importe où dans les protons en collision. Mais les cartes inspirées par la gravitation suggèrent que les quarks ont tendance à rester près du centre dans de tels cas.

"Les modèles utilisés au CERN ont déjà été mis à jour", a déclaré François-Xavier Girod, physicien du Jefferson Lab qui a travaillé sur les expériences.

Les nouvelles cartes pourraient également offrir des pistes pour résoudre l’un des mystères les plus profonds du proton : pourquoi les quarks se lient en protons. Il existe un argument intuitif selon lequel, comme la force puissante entre chaque paire de quarks s'intensifie à mesure qu'ils s'éloignent, comme un élastique, les quarks ne peuvent jamais échapper à leurs camarades.

Mais les protons sont fabriqués à partir des membres les plus légers de la famille des quarks. Et les quarks légers peuvent également être considérés comme de longues ondes s'étendant au-delà de la surface du proton. Cette image suggère que la liaison du proton pourrait se produire non pas via la traction interne de bandes élastiques, mais par une interaction externe entre ces quarks ondulés et étirés. La cartographie de pression montre l’attraction de la force forte s’étendant jusqu’à 1,4 femtomètres et au-delà, renforçant ainsi l’argument en faveur de ces théories alternatives.

"Ce n'est pas une réponse définitive", a déclaré Girod, "mais cela indique que ces simples images avec des bandes élastiques ne sont pas pertinentes pour les quarks légers."



Auteur: Internet

Info: https://filsdelapensee.ch - Charlie Bois, 14 mars 2024

[ chromodynamique quantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

transgressions verbales

Avant même de parler, nous jurions.

Furieux de ce qu'il considère comme une pandémie virtuelle de vulgarité verbale émanant de personnalités aussi diverses que Howard Stern, Bono de U2 et Robert Novak, le Sénat des États-Unis est sur le point d'examiner un projet de loi qui augmenterait fortement les sanctions pour obscénité à l'antenne.

En multipliant par quinze les amendes qui seraient infligées aux radiodiffuseurs contrevenants, pour atteindre un montant d'environ 500 000 dollars par diffusion de grossièretés, et en menaçant de révoquer les licences des contrevenants récidivistes, le Sénat cherche à redonner à la place publique la teneur plus douce d'antan, lorsque l'on entendait rarement des propos calomnieux et que les célébrités n'étaient pas grossières à longueur de journée.

Pourtant, les chercheurs qui étudient l'évolution du langage et la psychologie des jurons disent qu'ils n'ont aucune idée du modèle mystique de gentillesse linguistique que les critiques pourraient avoir en tête. Le juron, disent-ils, est un universel humain. Toutes les langues, tous les dialectes et tous les patois étudiés, vivants ou morts, parlés par des millions de personnes ou par une petite tribu, ont leur part d'interdits, une variante de la célèbre liste des sept gros mots qui ne doivent pas être prononcés à la radio ou à la télévision, établie par le comédien George Carlin.

Les jeunes enfants mémorisent cet inventaire illicite bien avant d'en saisir le sens, explique John McWhorter, spécialiste de la linguistique au Manhattan Institute et auteur de "The Power of Babel", et les géants de la littérature ont toujours construit leur art sur sa colonne vertébrale.

"Le dramaturge jacobéen Ben Jonson a parsemé ses pièces de fackings et de "Culs peremptoirs", et Shakespeare ne pouvait guère écrire une strophe sans insérer des blasphèmes de l'époque comme "zounds" ou "sblood" - contractions offensantes de "God's wounds" et "God's blood" - ou autre étonnant  jeu de mots sexuel.

Le titre "Much Ado About Nothing", dit son auteur le Dr McWhorter, est un jeu de mots sur "Much Ado About an O Thing", le O thing étant une référence aux organes génitaux féminins.

Même la quintessence du bon livre abonde en passages coquins comme les hommes de II Kings 18:27 qui, comme le dit la traduction relativement douce du King James, "mangent leur propre merde et boivent leur propre pisse".

En fait, selon Guy Deutscher, linguiste à l'université de Leyde, aux Pays-Bas, et auteur de "The Unfolding of Language : An Evolutionary Tour of Mankind's Greatest Invention", les premiers écrits, qui datent d'il y a 5 000 ans, comportent leur lot de descriptions colorées de la forme humaine et de ses fonctions encore plus colorées. Et les écrits ne sont que le reflet d'une tradition orale qui, selon le Dr Deutscher et de nombreux autres psychologues et linguistes évolutionnistes, remonte à l'apparition du larynx humain, si ce n'est avant.

Certains chercheurs sont tellement impressionnés par la profondeur et la puissance du langage grossier qu'ils l'utilisent comme un judas dans l'architecture du cerveau, comme un moyen de sonder les liens enchevêtrés et cryptiques entre les nouvelles régions "supérieures" du cerveau chargées de l'intellect, de la raison et de la planification, et les quartiers neuronaux plus anciens et plus "bestiaux" qui donnent naissance à nos émotions.

Les chercheurs soulignent que le fait de jurer est souvent un amalgame de sentiments bruts et spontanés et de ruse ciblée, à la dérobée. Lorsqu'une personne en insulte une autre, disent-ils, elle crache rarement des obscénités et des insultes au hasard, mais évalue plutôt l'objet de son courroux et adapte le contenu de son explosion "incontrôlable" en conséquence.

Étant donné que l'injure fait appel aux voies de la pensée et des sentiments du cerveau dans une mesure à peu près égale et avec une ferveur facilement évaluable, les scientifiques affirment qu'en étudiant les circuits neuronaux qui la sous-tendent, ils obtiennent de nouvelles informations sur la façon dont les différents domaines du cerveau communiquent - et tout cela pour une réplique bien sentie.

D'autres chercheurs se sont penchés sur la physiologie de l'injure, sur la façon dont nos sens et nos réflexes réagissent à l'audition ou à la vue d'un mot obscène. Ils ont déterminé que le fait d'entendre un juron suscite une réaction littérale chez les gens. Lorsque des fils électrodermiques sont placés sur les bras et le bout des doigts d'une personne pour étudier les schémas de conductivité de sa peau et que les sujets entendent ensuite quelques obscénités prononcées clairement et fermement, les participants montrent des signes d'excitation instantanée. La conductivité de leur peau augmente, les poils de leurs bras se dressent, leur pouls s'accélère et leur respiration devient superficielle.

Il est intéressant de noter, selon Kate Burridge, professeur de linguistique à l'université Monash de Melbourne, en Australie, qu'une réaction similaire se produit chez les étudiants universitaires et d'autres personnes qui se targuent d'être instruites lorsqu'elles entendent des expressions de mauvaise grammaire ou d'argot qu'elles considèrent comme irritantes, illettrées ou déclassées.

"Les gens peuvent se sentir très passionnés par la langue, dit-elle, comme s'il s'agissait d'un artefact précieux qu'il faut protéger à tout prix contre les dépravations des barbares et des étrangers lexicaux." 

Le Dr Burridge et un collègue de Monash, Keith Allan, sont les auteurs de "Forbidden Words : Taboo and the Censoring of Language", qui sera publié au début de l'année prochaine par la Cambridge University Press.

Les chercheurs ont également découvert que les obscénités peuvent s'insinuer dans la peau d'une personne qui a la chair de poule, puis ne plus bouger. Dans une étude, les scientifiques ont commencé par le célèbre test de Stroop, qui consiste à montrer à des sujets une série de mots écrits en différentes couleurs et à leur demander de réagir en citant les couleurs des mots plutôt que les mots eux-mêmes.

Si les sujets voient le mot "chaise" écrit en lettres jaunes, ils sont censés dire "jaune".

Les chercheurs ont ensuite inséré un certain nombre d'obscénités et de vulgarités dans la gamme standard. En observant les réponses immédiates et différées des participants, les chercheurs ont constaté que, tout d'abord, les gens avaient besoin de beaucoup plus de temps pour triller les couleurs des mots d'injures que pour des termes neutres comme "chaise".

L'expérience de voir un texte titillant détournait manifestement les participants de la tâche de codage des couleurs. Pourtant, ces interpolations osées ont laissé des traces. Lors de tests de mémoire ultérieurs, les participants ont non seulement été beaucoup plus aptes à se souvenir des vilains mots que des mots neutres, mais cette supériorité s'appliquait également aux teintes des mots vilains, ainsi qu'à leur sens.

Oui, il est difficile de travailler dans la pénombre des ordures idiomatiques. Dans le cadre d'une autre étude, des chercheurs ont demandé à des participants de parcourir rapidement des listes de mots contenant des obscénités, puis de se souvenir du plus grand nombre possible de ces mots. Là encore, les sujets se sont montrés plus aptes à se remémorer les injures, et moins aptes à se souvenir de tout ce qui était acceptable et qui précédait ou suivait les injures.

Pourtant, si le langage grossier peut donner un coup de fouet, il peut aussi aider à évacuer le stress et la colère. Dans certains contextes, la libre circulation d'un langage grossier peut signaler non pas l'hostilité ou une pathologie sociale, mais l'harmonie et la tranquillité.

"Des études montrent que si vous êtes avec un groupe d'amis proches, plus vous êtes détendu, plus vous jurez", a déclaré le Dr Burridge. "C'est une façon de dire : 'Je suis tellement à l'aise ici que je peux me défouler. Je peux dire ce que je veux".

Il est également prouvé que les jurons peuvent être un moyen efficace d'évacuer l'agressivité et de prévenir ainsi la violence physique.

Avec l'aide d'une petite armée d'étudiants et de volontaires, Timothy B. Jay, professeur de psychologie au Massachusetts College of Liberal Arts à North Adams et auteur de "Cursing in America" et "Why We Curse", a exploré en détail la dynamique du juron.

Les enquêteurs ont découvert, entre autres, que les hommes jurent généralement plus que les femmes, à moins que ces dernières ne fassent partie d'une sororité, et que les doyens d'université jurent plus que les bibliothécaires ou les membres du personnel de la garderie universitaire.

Selon le Dr Jay, peu importe qui jure ou quelle est la provocation, la raison de l'éruption est souvent la même.

"À maintes reprises, les gens m'ont dit que le fait de jurer était pour eux un mécanisme d'adaptation, une façon de réduire le stress", a-t-il déclaré lors d'un entretien téléphonique. "C'est une forme de gestion de la colère qui est souvent sous-estimée".

En effet, les chimpanzés se livrent à ce qui semble être une sorte de match de jurons pour évacuer leur agressivité et éviter un affrontement physique potentiellement dangereux.

Frans de Waal, professeur de comportement des primates à l'université Emory d'Atlanta, a déclaré que lorsque les chimpanzés sont en colère, "ils grognent, crachent ou font un geste brusque et ascendant qui, si un humain le faisait, serait reconnu comme agressif".

Ces comportements sont des gestes de menace, a déclaré le professeur de Waal, et ils sont tous de bon augure.

"Un chimpanzé qui se prépare vraiment à se battre ne perd pas de temps avec des gestes, mais va tout simplement de l'avant et attaque". De la même manière, a-t-il ajouté, rien n'est plus mortel qu'une personne trop enragée pour utiliser des jurons, qui prend une arme à feu et commence à tirer sans bruit.

Les chercheurs ont également examiné comment les mots atteignent le statut de discours interdit et comment l'évolution du langage grossier affecte les couches plus lisses du discours civil empilées au-dessus. Ils ont découvert que ce qui est considéré comme un langage tabou dans une culture donnée est souvent un miroir des peurs et des fixations de cette culture.

"Dans certaines cultures, les jurons sont principalement liés au sexe et aux fonctions corporelles, tandis que dans d'autres, ils sont principalement liés au domaine de la religion", a déclaré le Dr Deutscher.

Dans les sociétés où la pureté et l'honneur des femmes sont d'une importance capitale, "il n'est pas surprenant que de nombreux jurons soient des variations sur le thème "fils de pute" ou fassent référence de manière imagée aux organes génitaux de la mère ou des sœurs de la personne concernée".

Le concept même de juron ou de serment trouve son origine dans la profonde importance que les cultures anciennes accordaient au fait de jurer au nom d'un ou de plusieurs dieux. Dans l'ancienne Babylone, jurer au nom d'un dieu était censé donner une certitude absolue contre le mensonge, a déclaré le Dr Deutscher, "et les gens croyaient que jurer faussement contre un dieu attirerait sur eux la terrible colère de ce dieu." La mise en garde contre tout abus du serment sacré se reflète dans le commandement biblique selon lequel il ne faut pas "prendre le nom du Seigneur en vain", et aujourd'hui encore, les témoins dans les tribunaux jurent sur la Bible qu'ils disent toute la vérité et rien que la vérité.

Chez les chrétiens, cette interdiction de prendre le nom du Seigneur en vain s'étendait à toute allusion désinvolte envers le fils de Dieu ou à ses souffrances corporelles - aucune mention du sang, des plaies ou du corps, et cela vaut aussi pour les savantes contractions. De nos jours, l'expression "Oh, golly !" peut être considérée comme presque comiquement saine, mais il n'en a pas toujours été ainsi. "Golly" est une compaction de "corps de Dieu" et, par conséquent, était autrefois un blasphème.

Pourtant, ni les commandements bibliques, ni la censure victorienne la plus zélée ne peuvent faire oublier à l'esprit humain son tourment pour son corps indiscipliné, ses besoins chroniques et embarrassants et sa triste déchéance. L'inconfort des fonctions corporelles ne dort jamais, a déclaré le Dr Burridge, et le besoin d'une sélection toujours renouvelée d'euphémismes sur des sujets sales a longtemps servi de moteur impressionnant à l'invention linguistique.

Lorsqu'un mot devient trop étroitement associé à une fonction corporelle spécifique, dit-elle, lorsqu'il devient trop évocateur de ce qui ne devrait pas être évoqué, il commence à entrer dans le domaine du tabou et doit être remplacé par un nouvel euphémisme plus délicat.

Par exemple, le mot "toilette" vient du mot français "petite serviette" et était à l'origine une manière agréablement indirecte de désigner l'endroit où se trouve le pot de chambre ou son équivalent. Mais depuis, le mot "toilettes" désigne le meuble en porcelaine lui-même, et son emploi est trop brutal pour être utilisé en compagnie polie. Au lieu de cela, vous demanderez à votre serveur en smoking de vous indiquer les toilettes pour dames ou les toilettes ou, si vous le devez, la salle de bains.

De même, le mot "cercueil" (coffin) désignait à l'origine une boîte ordinaire, mais une fois qu'il a été associé à la mort, c'en fut fini du "cercueil à chaussures" ou de la "pensée hors du cercueil". Selon le Dr Burridge, le sens tabou d'un mot "chasse toujours les autres sens qu'il aurait pu avoir".

Les scientifiques ont récemment cherché à cartographier la topographie neuronale du discours interdit en étudiant les patients atteints du syndrome de Tourette qui souffrent de coprolalie, l'envie pathologique et incontrôlable de jurer. Le syndrome de Gilles de la Tourette est un trouble neurologique d'origine inconnue qui se caractérise principalement par des tics moteurs et vocaux chroniques, une grimace constante ou le fait de remonter ses lunettes sur l'arête du nez, ou encore l'émission d'un flot de petits glapissements ou de grognements.

Seul un faible pourcentage des patients atteints de la maladie de Gilles de la Tourette sont atteints de coprolalie - les estimations varient de 8 à 30 % - et les patients sont consternés par les représentations populaires de la maladie de Gilles de la Tourette comme une affection humoristique et invariablement scatologique. Mais pour ceux qui souffrent de coprolalie, dit le Dr Carlos Singer, directeur de la division des troubles du mouvement à la faculté de médecine de l'université de Miami, ce symptôme est souvent l'aspect le plus dévastateur et le plus humiliant de leur maladie.

Non seulement il peut être choquant pour les gens d'entendre une volée de jurons jaillir sans raison apparente, parfois de la bouche d'un enfant ou d'un jeune adolescent, mais les jurons peuvent aussi être provocants et personnels, des insultes fleuries contre la race, l'identité sexuelle ou la taille d'un passant, par exemple, ou des références obscènes délibérées et répétées au sujet d'un ancien amant dans les bras d'un partenaire ou d'un conjoint actuel.

Dans un rapport publié dans The Archives of General Psychiatry, le Dr David A. Silbersweig, directeur du service de neuropsychiatrie et de neuro-imagerie du Weill Medical College de l'université Cornell, et ses collègues ont décrit leur utilisation de la TEP pour mesurer le débit sanguin cérébral et identifier les régions du cerveau qui sont galvanisées chez les patients atteints de la maladie de Tourette pendant les épisodes de tics et de coprolalie. Ils ont constaté une forte activation des ganglions de la base, un quatuor de groupes de neurones situés dans le cerveau antérieur, à peu près au niveau du milieu du front, connus pour aider à coordonner les mouvements du corps, ainsi qu'une activation des régions cruciales du cerveau antérieur arrière gauche qui participent à la compréhension et à la production du langage, notamment l'aire de Broca.

Les chercheurs ont également constaté l'activation de circuits neuronaux qui interagissent avec le système limbique, le trône des émotions humaines en forme de berceau, et, de manière significative, avec les domaines "exécutifs" du cerveau, où les décisions d'agir ou de s'abstenir d'agir peuvent être prises : la source neuronale, selon les scientifiques, de la conscience, de la civilité ou du libre arbitre dont les humains peuvent se prévaloir.

Selon le Dr Silbersweig, le fait que le superviseur exécutif du cerveau s'embrase lors d'une crise de coprolalie montre à quel point le besoin de dire l'indicible peut être un acte complexe, et pas seulement dans le cas du syndrome de Tourette. La personne est saisie d'un désir de maudire, de dire quelque chose de tout à fait inapproprié. Les circuits linguistiques d'ordre supérieur sont sollicités pour élaborer le contenu de la malédiction. Le centre de contrôle des impulsions du cerveau s'efforce de court-circuiter la collusion entre l'envie du système limbique et le cerveau néocortical, et il peut y parvenir pendant un certain temps. 

Mais l'envie monte, jusqu'à ce que les voies de la parole se déchaînent, que le verboten soit prononcé, et que les cerveaux archaïques et raffinés en portent la responsabilité.

Auteur: Angier Natalie

Info: The New York Times, 20 septembre 2005

[ vocables pulsions ] [ onomasiologie ] [ tiercités réflexes ] [ jargon reptilien ] [ verbe soupape ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par miguel

méta-moteur

Le comportement de cet animal est programmé mécaniquement.

Des interactions biomécaniques, plutôt que des neurones, contrôlent les mouvements de l'un des animaux les plus simples. Cette découverte offre un aperçu de la façon dont le comportement animal fonctionnait avant l'apparition des neurones.

L'animal extrêmement simple Trichoplax adhaerens se déplace et réagit à son environnement avec agilité et avec un but apparent, mais il n'a pas de neurones ou de muscles pour coordonner ses mouvements. De nouveaux travaux montrent que les interactions biomécaniques entre les cils de l'animal suffisent à en expliquer ses mouvements.

Le biophysicien Manu Prakash se souvient très bien du moment où, tard dans la nuit, dans le laboratoire d'un collègue, il y a une douzaine d'années, il a regardé dans un microscope et a rencontré sa nouvelle obsession. L'animal sous les lentilles n'était pas très beau à voir, ressemblant plus à une amibe qu'à autre chose : une tache multicellulaire aplatie, de 20 microns d'épaisseur et de quelques millimètres de diamètre, sans tête ni queue. Elle se déplaçait grâce à des milliers de cils qui recouvraient sa face inférieure pour former la "plaque velue collante" qui lui a inspiré son nom latin, Trichoplax adhaerens.

Cette étrange créature marine, classée dans la catégorie des placozoaires, dispose pratiquement d'une branche entière de l'arbre de l'évolution de la vie pour elle-même, ainsi que du plus petit génome connu du règne animal. Mais ce qui a le plus intrigué Prakash, c'est la grâce, l'agilité et l'efficacité bien orchestrées avec lesquelles les milliers ou les millions de cellules du Trichoplax se déplacent.

Après tout, une telle coordination nécessite habituellement des neurones et des muscles - et le Trichoplax n'en a pas.

Prakash s'est ensuite associé à Matthew Storm Bull, alors étudiant diplômé de l'université de Stanford, pour faire de cet étrange organisme la vedette d'un projet ambitieux visant à comprendre comment les systèmes neuromusculaires ont pu évoluer et comment les premières créatures multicellulaires ont réussi à se déplacer, à trouver de la nourriture et à se reproduire avant l'existence des neurones.

"J'appelle souvent ce projet, en plaisantant, la neuroscience sans les neurones", a déclaré M. Prakash.

Dans un trio de prétirés totalisant plus de 100 pages - publiés simultanément sur le serveur arxiv.org l'année dernière - lui et Bull ont montré que le comportement de Trichoplax pouvait être décrit entièrement dans le langage de la physique et des systèmes dynamiques. Les interactions mécaniques qui commencent au niveau d'un seul cilium, puis se multiplient sur des millions de cellules et s'étendent à des niveaux supérieurs de structure, expliquent entièrement la locomotion coordonnée de l'animal tout entier. L'organisme ne "choisit" pas ce qu'il doit faire. Au contraire, la horde de cils individuels se déplace simplement - et l'animal dans son ensemble se comporte comme s'il était dirigé par un système nerveux. Les chercheurs ont même montré que la dynamique des cils présente des propriétés qui sont généralement considérées comme des signes distinctifs des neurones.

Ces travaux démontrent non seulement comment de simples interactions mécaniques peuvent générer une incroyable complexité, mais ils racontent également une histoire fascinante sur ce qui aurait pu précéder l'évolution du système nerveux.

"C'est un tour de force de la biophysique", a déclaré Orit Peleg, de l'université du Colorado à Boulder, qui n'a pas participé aux études. Ces découvertes ont déjà commencé à inspirer la conception de machines mécaniques et de robots, et peut-être même une nouvelle façon de penser au rôle des systèmes nerveux dans le comportement animal. 

La frontière entre le simple et le complexe

Les cerveaux sont surestimés. "Un cerveau est quelque chose qui ne fonctionne que dans le contexte très spécifique de son corps", a déclaré Bull. Dans les domaines connus sous le nom de "robotique douce" et de "matière active", la recherche a démontré que la bonne dynamique mécanique peut suffire à accomplir des tâches complexes sans contrôle centralisé. En fait, les cellules seules sont capables de comportements remarquables, et elles peuvent s'assembler en systèmes collectifs (comme les moisissures ou les xénobots) qui peuvent accomplir encore plus, le tout sans l'aide de neurones ou de muscles.

Mais est-ce possible à l'échelle d'un animal multicellulaire entier ?

Le Trichoplax fut un cas d'étude parfait : assez simple pour être étudié dans les moindres détails, mais aussi assez compliqué pour offrir quelque chose de nouveau aux chercheurs. En l'observant, "vous regardez simplement une danse", a déclaré Prakash. "Elle est d'une incroyable complexité". Elle tourne et se déplace sur des surfaces. Elle s'accroche à des plaques d'algues pour les piéger et les consommer comme nourriture. Elle se reproduit asexuellement en se divisant en deux.

"Un organisme comme celui-ci se situe dans un régime intermédiaire entre quelque chose de réellement complexe, comme un vertébré, et quelque chose qui commence à devenir complexe, comme les eucaryotes unicellulaires", explique Kirsty Wan, chercheur à l'université d'Exeter en Angleterre, qui étudie la locomotion ciliaire.

Ce terrain intermédiaire entre les cellules uniques et les animaux dotés de muscles et de systèmes nerveux semblait être l'endroit idéal pour que Prakash et Bull posent leurs questions. "Pour moi, un organisme est une idée", a déclaré Prakash, un terrain de jeu pour tester des hypothèses et un berceau de connaissances potentielles.

Prakash a d'abord construit de nouveaux microscopes permettant d'examiner le Trichoplax par en dessous et sur le côté, et a trouvé comment suivre le mouvement à grande vitesse de ses cils. (Ce n'était pas un terrain entièrement nouveau pour lui, puisqu'il était déjà célèbre pour ses travaux sur le Foldscope, un microscope facile à assembler et dont la fabrication coûte moins d'un dollar). Il pouvait alors voir et suivre des millions de cils individuels, chacun apparaissant comme une minuscule étincelle dans le champ de vision du microscope pendant une fraction de seconde à la fois. "Vous ne voyez que les empreintes lorsqu'elles se posent sur la surface", a déclaré Prakash.

Lui-même - et plus tard Bull, qui a rejoint son laboratoire il y a six ans - ont passé des heures à observer l'orientation de ces petites empreintes. Pour que ces motifs complexes soient possibles, les scientifiques savaient que les cils devaient être engagés dans une sorte de communication à longue distance. Mais ils ne savaient pas comment.

Ils ont donc commencé à rassembler les pièces du puzzle, jusqu'à ce que, l'année dernière, ils décident enfin qu'ils avaient leur histoire.

Une marche en pilote automatique

Au départ, Prakash et Bull s'attendaient à ce que les cils glissent sur des surfaces, avec une fine couche de liquide séparant l'animal du substrat. Après tout, les cils sont généralement vus dans le contexte des fluides : ils propulsent des bactéries ou d'autres organismes dans l'eau, ou déplacent le mucus ou les fluides cérébrospinaux dans un corps. Mais lorsque les chercheurs ont regardé dans leurs microscopes, ils ont constaté que les cils semblaient marcher, et non nager.

Bien que l'on sache que certains organismes unicellulaires utilisent les cils pour ramper, ce type de coordination n'avait jamais été observé à cette échelle. "Plutôt qu'utiliser les cils pour propulser un fluide, il s'agit de mécanique, de friction, d'adhésion et de toutes sortes de mécanismes solides très intéressants", a-t-elle déclaré.

Prakash, Bull et Laurel Kroo, une étudiante diplômée en génie mécanique de Stanford, ont donc entrepris de caractériser la démarche des cils. Ils ont suivi la trajectoire de l'extrémité de chaque cilium au fil du temps, l'observant tracer des cercles et pousser contre des surfaces. Ils ont défini trois types d'interactions : le glissement, au cours duquel les cils effleurent à peine la surface ; la marche, lorsque les cils adhèrent brièvement à la surface avant de se détacher ; et le calage, lorsque les cils restent coincés contre la surface.

Dans leurs modèles, l'activité de marche émergeait naturellement de l'interaction entre les forces motrices internes des cils et l'énergie de leur adhésion à la surface. Le bon équilibre entre ces deux paramètres (calculé à partir de mesures expérimentales de l'orientation, de la hauteur et de la fréquence des battements des cils) permettant une locomotion régulière, chaque cilium se collant puis se soulevant, comme une jambe. Un mauvais équilibre produisant les phases de glissement ou de décrochage.

Nous pensons généralement, lorsque quelque chose se passe comme ça, qu'il y a un signal interne semblable à une horloge qui dit : "OK, allez-y, arrêtez-vous, allez-y, arrêtez-vous", a déclaré Simon Sponberg, biophysicien à l'Institut de technologie de Géorgie. "Ce n'est pas ce qui se passe ici. Les cils ne sont pas rythmés. Il n'y a pas une chose centrale qui dit 'Go, go, go' ou autre. Ce sont les interactions mécaniques qui mettent en place quelque chose qui va, qui va, qui va."

De plus, la marche pourrait être modélisée comme un système excitable, c'est-à-dire un système dans lequel, sous certaines conditions, les signaux se propagent et s'amplifient au lieu de s'atténuer progressivement et de s'arrêter. Un neurone est un exemple classique de système excitable : De petites perturbations de tension peuvent provoquer une décharge soudaine et, au-delà d'un certain seuil, le nouvel état stimulé se propage au reste du système. Le même phénomène semble se produire ici avec les cils. Dans les expériences et les simulations, de petites perturbations de hauteur, plutôt que de tension, entraînent des changements relativement importants dans l'activité des cils voisins : Ils peuvent soudainement changer d'orientation, et même passer d'un état de stase à un état de marche. "C'est incroyablement non linéaire", a déclaré Prakash.

En fait, les modèles de cils de Prakash, Bull et Kroo se sont avérés très bien adaptés aux modèles établis pour les potentiels d'action au sein des neurones. "Ce type de phénomène unique se prête à une analogie très intéressante avec ce que l'on observe dans la dynamique non linéaire des neurones individuels", a déclaré Bull. Sponberg est d'accord. "C'est en fait très similaire. Il y a une accumulation de l'énergie, et puis pop, et puis pop, et puis pop".

Les cils s'assemblent comme des oiseaux

Forts de cette description mathématique, Prakash et Bull ont examiné comment chaque cilium pousse et tire sur ses voisins lors de son interaction avec la surface, et comment toute ces activités indépendantes peuvent se transformer en quelque chose de synchronisé et cohérent.

Ils ont mesuré comment la démarche mécanique de chaque cilium entraînait de petites fluctuations locales de la hauteur du tissu. Ils ont ensuite écrit des équations pour expliquer comment ces fluctuations pouvaient influencer le comportement des cellules voisines, alors même que les cils de ces cellules effectuaient leurs propres mouvements, comme un réseau de ressorts reliant de minuscules moteurs oscillants.

Lorsque les chercheurs ont modélisé "cette danse entre élasticité et activité", ils ont constaté que les interactions mécaniques - de cils poussant contre un substrat et de cellules se tirant les unes les autres - transmettaient rapidement des informations à travers l'organisme. La stimulation d'une région entraînait des vagues d'orientation synchronisée des cils qui se déplaçaient dans le tissu. "Cette élasticité et cette tension dans la physique d'un cilium qui marche, maintenant multipliées par des millions d'entre eux dans une feuille, donnent en fait lieu à un comportement mobile cohérent", a déclaré Prakash.

Et ces modèles d'orientation synchronisés peuvent être complexes : parfois, l'activité du système produit des tourbillons, les cils étant orientés autour d'un seul point. Dans d'autres cas, les cils se réorientent en quelques fractions de seconde, pointant d'abord dans une direction puis dans une autre - se regroupant comme le ferait un groupe d'étourneaux ou un banc de poissons, et donnant lieu à une agilité qui permet à l'animal de changer de direction en un clin d'œil.

"Nous avons été très surpris lorsque nous avons vu pour la première fois ces cils se réorienter en une seconde", a déclaré M. Bull.

Ce flocage agile est particulièrement intriguant. Le flocage se produit généralement dans des systèmes qui se comportent comme des fluides : les oiseaux et les poissons individuels, par exemple, peuvent échanger librement leurs positions avec leurs compagnons. Mais cela ne peut pas se produire chez Trichoplax, car ses cils sont des composants de cellules qui ont des positions fixes. Les cils se déplacent comme "un troupeau solide", explique Ricard Alert, physicien à l'Institut Max Planck pour la physique des systèmes complexes.

Prakash et Bull ont également constaté dans leurs simulations que la transmission d'informations était sélective : Après certains stimuli, l'énergie injectée dans le système par les cils se dissipe tout simplement, au lieu de se propager et de modifier le comportement de l'organisme. Nous utilisons notre cerveau pour faire cela tout le temps, pour observer avec nos yeux et reconnaître une situation et dire : "Je dois soit ignorer ça, soit y répondre", a déclaré M. Sponberg.

Finalement, Prakash et Bull ont découvert qu'ils pouvaient écrire un ensemble de règles mécaniques indiquant quand le Trichoplax peut tourner sur place ou se déplacer en cercles asymétriques, quand il peut suivre une trajectoire rectiligne ou dévier soudainement vers la gauche, et quand il peut même utiliser sa propre mécanique pour se déchirer en deux organismes distincts.

"Les trajectoires des animaux eux-mêmes sont littéralement codées" via ces simples propriétés mécaniques, a déclaré Prakash.

Il suppose que l'animal pourrait tirer parti de ces dynamiques de rotation et de reptation dans le cadre d'une stratégie de "course et culbute" pour trouver de la nourriture ou d'autres ressources dans son environnement. Lorsque les cils s'alignent, l'organisme peut "courir", en continuant dans la direction qui vient de lui apporter quelque chose de bénéfique ; lorsque cette ressource semble s'épuiser, Trichoplax peut utiliser son état de vortex ciliaire pour se retourner et tracer une nouvelle route.

Si d'autres études démontrent que c'est le cas, "ce sera très excitant", a déclaré Jordi Garcia-Ojalvo, professeur de biologie systémique à l'université Pompeu Fabra de Barcelone. Ce mécanisme permettrait de faire le lien entre beaucoups d'échelles, non seulement entre la structure moléculaire, le tissu et l'organisme, mais aussi pour ce qui concerne écologie et environnement.

En fait, pour de nombreux chercheurs, c'est en grande partie ce qui rend ce travail unique et fascinant. Habituellement, les approches des systèmes biologiques basées sur la physique décrivent l'activité à une ou deux échelles de complexité, mais pas au niveau du comportement d'un animal entier. "C'est une réussite...  vraiment rare", a déclaré M. Alert.

Plus gratifiant encore, à chacune de ces échelles, la mécanique exploite des principes qui font écho à la dynamique des neurones. "Ce modèle est purement mécanique. Néanmoins, le système dans son ensemble possède un grand nombre des propriétés que nous associons aux systèmes neuro-mécaniques : il est construit sur une base d'excitabilité, il trouve constamment un équilibre délicat entre sensibilité et stabilité et il est capable de comportements collectifs complexes." a déclaré Sponberg.

"Jusqu'où ces systèmes mécaniques peuvent-ils nous mener ?... Très loin." a-t-il ajouté.

Cela a des implications sur la façon dont les neuroscientifiques pensent au lien entre l'activité neuronale et le comportement de manière plus générale. "Les organismes sont de véritables objets dans l'espace", a déclaré Ricard Solé, biophysicien à l'ICREA, l'institution catalane pour la recherche et les études avancées, en Espagne. Si la mécanique seule peut expliquer entièrement certains comportements simples, les neuroscientifiques voudront peut-être examiner de plus près comment le système nerveux tire parti de la biophysique d'un animal pour obtenir des comportements complexes dans d'autres situations.

"Ce que fait le système nerveux n'est peut-être pas ce que nous pensions qu'il faisait", a déclaré M. Sponberg.

Un pas vers la multicellularité

"L'étude de Trichoplax peut nous donner un aperçu de ce qu'il a fallu faire pour développer des mécanismes de contrôle plus complexes comme les muscles et les systèmes nerveux", a déclaré Wan. "Avant d'arriver à ça, quelle est le meilleur truc à suivre ? Ca pourrait bien être ça".

Alert est d'accord. "C'est une façon si simple d'avoir des comportements organisationnels tels que l'agilité que c'est peut-être ainsi qu'ils ont émergé au début et  au cours de l'évolution, avant que les systèmes neuronaux ne se développent. Peut-être que ce que nous voyons n'est qu'un fossile vivant de ce qui était la norme à l'époque".

Solé considère que Trichoplax occupe une "twilight zone... au centre des grandes transitions vers la multicellularité complexe". L'animal semble commencer à mettre en place "les conditions préalables pour atteindre la vraie complexité, celle où les neurones semblent être nécessaires."

Prakash, Bull et leurs collaborateurs cherchent maintenant à savoir si Trichoplax pourrait être capable d'autres types de comportements ou même d'apprentissage. Que pourrait-il réaliser d'autre dans différents contextes environnementaux ? La prise en compte de sa biochimie en plus de sa mécanique ouvrirait-elle vers un autre niveau de comportement ?

Les étudiants du laboratoire de Prakash ont déjà commencé à construire des exemples fonctionnels de ces machines. Kroo, par exemple, a construit un dispositif de natation robotisé actionné par un matériau viscoélastique appelé mousse active : placée dans des fluides non newtoniens comme des suspensions d'amidon de maïs, elle peut se propulser vers l'avant.

"Jusqu'où voulez-vous aller ? a demandé Peleg. "Pouvez-vous construire un cerveau, juste à partir de ce genre de réseaux mécaniques ?"

Prakash considère que ce n'est que le premier chapitre de ce qui sera probablement une saga de plusieurs décennies. "Essayer de vraiment comprendre cet animal est pour moi un voyage de 30 ou 40 ans", a-t-il dit. "Nous avons terminé notre première décennie... C'est la fin d'une époque et le début d'une autre".

Auteur: Internet

Info: https://www.quantamagazine.org/before-brains-mechanics-may-have-ruled-animal-behavior. Jordana Cepelewicz, 16 mars 2022. Trad Mg

[ cerveau rétroactif ] [ échelles mélangées ] [ action-réaction ] [ plus petit dénominateur commun ] [ grégarisme ] [ essaims ] [ murmurations mathématiques ]

 

Commentaires: 0

Ajouté à la BD par miguel

épistémologie

Opinion: Pourquoi la science a besoin de la philosophe

Malgré les liens historiques étroits entre la science et la philosophie, les scientifiques d'aujourd'hui perçoivent souvent la philosophie comme complètement différente, voire antagoniste, de la science. Nous soutenons ici que, au contraire, la philosophie peut avoir un impact important et productif sur la science.

Nous illustrons notre propos par trois exemples tirés de divers domaines des sciences de la vie contemporaines. Chacun d'entre eux concerne la recherche scientifique de pointe, et chacun ayant été explicitement reconnu par les chercheurs en exercice comme une contribution utile à la science. Ces exemples, et d'autres, montrent que la contribution de la philosophie peut prendre au moins quatre formes : la clarification des concepts scientifiques, l'évaluation critique des hypothèses ou des méthodes scientifiques, la formulation de nouveaux concepts et de nouvelles théories, et la promotion du dialogue entre les différentes sciences, ainsi qu'entre la science et la société.

Clarification conceptuelle et cellules souches.

Tout d'abord, la philosophie offre une clarification conceptuelle. Les clarifications conceptuelles améliorent non seulement la précision et l'utilité des termes scientifiques, mais conduisent également à de nouvelles recherches expérimentales, car le choix d'un cadre conceptuel donné contraint fortement la façon dont les expériences sont conçues.

La définition des cellules souches (stem cells) en est un excellent exemple. La philosophie a une longue tradition d'étude des propriétés, et les outils utilisés dans cette tradition ont récemment été appliqués pour décrire la "souche", propriété qui définit les cellules souches. L'un d'entre nous a montré que quatre types de propriétés différentes existent sous cette dénomination de souche (stemness) au vu des connaissances scientifiques actuelles. Selon le type de tissu, la stemness peut être une propriété catégorielle (propriété intrinsèque de la cellule souche, indépendante de son environnement), une propriété dispositionnelle (propriété intrinsèque de la cellule souche qui est contrôlée par le micro-environnement), une propriété relationnelle (propriété extrinsèque qui peut être conférée aux cellules non souches par le microenvironnement), ou une propriété systémique (propriété qui est maintenue et contrôlée au niveau de la population cellulaire entière).

Hans Clevers, chercheur en biologie des cellules souches et du cancer, note que cette analyse philosophique met en lumière d'importants problèmes sémantiques et conceptuels en oncologie et en biologie des cellules souches ; il suggère également que cette analyse soit facilement applicable à l'expérimentation. En effet, au-delà de la clarification conceptuelle, ce travail philosophique a des applications dans le monde réel, comme l'illustre le cas des cellules souches cancéreuses en oncologie.

Les recherches visant à développer des médicaments ciblant soit les cellules souches cancéreuses, soit leur microenvironnement, reposent en fait sur différents types de souches et sont donc susceptibles d'avoir des taux de réussite différents selon le type de cancer. En outre, elles pourraient ne pas couvrir tous les types de cancer, car les stratégies thérapeutiques actuelles ne tiennent pas compte de la définition systémique de la souche. Déterminer le type de souche présent dans chaque tissu et chaque cancer est donc utile pour orienter le développement et le choix des thérapies anticancéreuses. Dans la pratique, ce cadre a conduit à la recherche de thérapies anticancéreuses qui combinent le ciblage des propriétés intrinsèques des cellules souches cancéreuses, de leur microenvironnement et des points de contrôle immunitaires afin de couvrir tous les types possibles de souches.

En outre, ce cadre philosophique a récemment été appliqué à un autre domaine, l'étude des organoïdes (tissus en 3D dérivés de cellules souches, sont capables de s'auto-organiser et de reproduire certaines fonctions d'un organe.). Dans une revue systémique des données expérimentales sur les organoïdes provenant de diverses sources, Picollet-D'hahan et al. ont caractérisé la capacité à former des organoïdes comme une propriété dispositionnelle. Ils ont pu alors affirmer que pour accroître l'efficacité et la reproductibilité de la production d'organoïdes, actuellement un défi majeur dans le domaine, les chercheurs doivent mieux comprendre la partie intrinsèque de la propriété dispositionnelle qui est influencée par le microenvironnement. Pour distinguer les caractéristiques intrinsèques des cellules qui ont une telle disposition, ce groupe développe actuellement des méthodes de génomique fonctionnelle à haut débit, permettant d'étudier le rôle de pratiquement tous les gènes humains dans la formation des organoïdes.

Immunogénicité et microbiome.

En complément de son rôle dans la clarification conceptuelle, la philosophie peut contribuer à la critique des hypothèses scientifiques et peut même être proactive dans la formulation de théories nouvelles, testables et prédictives qui aident à définir de nouvelles voies pour la recherche empirique.

Par exemple, une critique philosophique du cadre du cadre immunitaire du soi et du non-soi a conduit à deux contributions scientifiques importantes. Tout d'abord, elle a servi de base à la formulation d'un nouveau cadre théorique, la théorie de la discontinuité de l'immunité, qui complète les modèles antérieurs du non-soi et du danger en proposant que le système immunitaire réagisse aux modifications soudaines des motifs antigéniques. Cette théorie éclaire de nombreux phénomènes immunologiques importants, notamment les maladies auto-immunes, les réponses immunitaires aux tumeurs et la tolérance immunologique à des ligands exprimés de façon chronique. La théorie de la discontinuité a été appliquée à une multitude de questions, aidant à explorer les effets des agents chimiothérapeutiques sur l'immunomodulation dans le cancer et expliquant comment les cellules tueuses naturelles modifient constamment leur phénotype et leurs fonctions grâce à leurs interactions avec leurs ligands** d'une manière qui assure la tolérance aux constituants corporels. La théorie permet également d'expliquer les conséquences des vaccinations répétées chez les personnes immunodéprimées et propose des modèles mathématiques dynamiques de l'activation immunitaire. Collectivement, ces diverses évaluations empiriques illustrent comment des propositions d'inspiration philosophique peuvent conduire à des expériences inédites, ouvrant ainsi de nouvelles voies de recherche.

Deuxièmement, la critique philosophique a contribué, avec d'autres approches philosophiques, à la notion selon laquelle tout organisme, loin d'être un soi génétiquement homogène, est une communauté symbiotique abritant et tolérant de multiples éléments étrangers (notamment des bactéries et des virus), qui sont reconnus mais non éliminés par son système immunitaire. La recherche sur l'intégration symbiotique et la tolérance immunitaire a des conséquences considérables sur notre conception de ce qui constitue un organisme individuel, qui est de plus en plus conceptualisé comme un écosystème complexe dont les fonctions clés, du développement à la défense, la réparation et la cognition, sont affectées par les interactions avec les microbes.

Influence sur les sciences cognitives.

L'étude de la cognition et des neurosciences cognitives offre une illustration frappante de l'influence profonde et durable de la philosophie sur la science. Comme pour l'immunologie, les philosophes ont formulé des théories et des expériences influentes, aidé à lancer des programmes de recherche spécifiques et contribué à des changements de paradigme. Mais l'ampleur de cette influence est bien plus importante que dans le cas de l'immunologie. La philosophie a joué un rôle dans le passage du behaviorisme au cognitivisme et au computationnalisme dans les années 1960. La théorie de la modularité de l'esprit, proposée par le philosophe Jerry Fodor, a peut-être été la plus visible. Son influence sur les théories de l'architecture cognitive peut difficilement être dépassée. Dans un hommage rendu après le décès de Fodor en 2017, l'éminent psychologue cognitif James Russell a parlé dans le magazine de la British Psychological Society de "psychologie cognitive du développement BF (avant Fodor) et AF (après Fodor) ".

La modularité renvoie à l'idée que les phénomènes mentaux résultent du fonctionnement de multiples processus distincts, et non d'un seul processus indifférencié. Inspiré par les résultats de la psychologie expérimentale, par la linguistique chomskienne et par les nouvelles théories computationnelles de la philosophie de l'esprit, Fodor a théorisé que la cognition humaine est structurée en un ensemble de modules spécialisés de bas niveau, spécifiques à un domaine et encapsulés sur le plan informationnel, et en un système central de plus haut niveau, général à un domaine, pour le raisonnement abductif, l'information ne circulant que verticalement vers le haut, et non vers le bas ou horizontalement (c'est-à-dire entre les modules). Il a également formulé des critères stricts de modularité. Aujourd'hui encore, la proposition de Fodor définit les termes d'une grande partie de la recherche empirique et de la théorie dans de nombreux domaines des sciences cognitives et des neurosciences, y compris le développement cognitif, la psychologie de l'évolution, l'intelligence artificielle et l'anthropologie cognitive. Bien que sa théorie ait été révisée et remise en question, les chercheurs continuent d'utiliser, de peaufiner et de débattre de son approche et de sa boîte à outils conceptuelle de base.

La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de rigueur, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes.

La tâche des fausses croyances constitue un autre exemple clé de l'impact de la philosophie sur les sciences cognitives. Le philosophe Daniel Dennett a été le premier à concevoir la logique de base de cette expérience comme une révision d'un test utilisé pour évaluer la théorie de l'esprit, la capacité d'attribuer des états mentaux à soi-même et aux autres. Cette tâche teste la capacité d'attribuer à autrui des croyances que l'on considère comme fausses, l'idée clé étant que le raisonnement sur les croyances fausses d'autrui, par opposition aux croyances vraies, exige de concevoir les autres personnes comme ayant des représentations mentales qui divergent des siennes et de la façon dont le monde est réellement. Sa première application empirique remonte à 1983 , dans un article dont le titre, "Beliefs About Beliefs : Representation and Constraining Function of Wrong Beliefs in Young Children's Understanding of Deception", est en soi un hommage direct à la contribution de Dennett.

La tâche des fausses croyances représente une expérience marquante dans divers domaines des sciences cognitives et des neurosciences, avec de vastes applications et implications. Il s'agit notamment de tester les stades du développement cognitif chez les enfants, de débattre de l'architecture de la cognition humaine et de ses capacités distinctes, d'évaluer les capacités de la théorie de l'esprit chez les grands singes, de développer des théories de l'autisme en tant que cécité de l'esprit (selon lesquelles les difficultés à réussir la tâche des fausses croyances sont associées à cette maladie), et de déterminer quelles régions particulières du cerveau sont associées à la capacité de raisonner sur le contenu de l'esprit d'une autre personne .

La philosophie a également aidé le domaine des sciences cognitives à éliminer les hypothèses problématiques ou dépassées, contribuant ainsi à l'évolution de la science. Les concepts de l'esprit, de l'intelligence, de la conscience et de l'émotion sont utilisés de manière omniprésente dans différents domaines, avec souvent peu d'accord sur leur signification. L'ingénierie de l'intelligence artificielle, la construction de théories psychologiques des variables de l'état mental et l'utilisation d'outils neuroscientifiques pour étudier la conscience et l'émotion nécessitent des outils conceptuels pour l'autocritique et le dialogue interdisciplinaire - précisément les outils que la philosophie peut fournir.

La philosophie - parfois représentée par la lettre grecque phi - peut contribuer à faire progresser tous les niveaux de l'entreprise scientifique, de la théorie à l'expérience. Parmi les exemples récents, citons les contributions à la biologie des cellules souches, à l'immunologie, à la symbiose et aux sciences cognitives.  

La philosophie et la connaissance scientifique.

Les exemples ci-dessus sont loin d'être les seuls : dans les sciences de la vie, la réflexion philosophique a joué un rôle important dans des questions aussi diverses que l'altruisme évolutif , le débat sur les unités de sélection, la construction d'un "arbre de vie", la prédominance des microbes dans la biosphère, la définition du gène et l'examen critique du concept d'innéité. De même, en physique, des questions fondamentales comme la définition du temps ont été enrichies par les travaux des philosophes. Par exemple, l'analyse de l'irréversibilité temporelle par Huw Price et les courbes temporelles fermées par David Lewis ont contribué à dissiper la confusion conceptuelle en physique.

Inspirés par ces exemples et bien d'autres, nous considérons que la philosophie et la science se situent sur un continuum. La philosophie et la science partagent les outils de la logique, de l'analyse conceptuelle et de l'argumentation rigoureuse. Cependant, les philosophes peuvent utiliser ces outils avec des degrés de minutie, de liberté et d'abstraction théorique que les chercheurs praticiens ne peuvent souvent pas se permettre dans leurs activités quotidiennes. Les philosophes possédant les connaissances scientifiques pertinentes peuvent alors contribuer de manière significative à l'avancement de la science à tous les niveaux de l'entreprise scientifique, de la théorie à l'expérimentation, comme le montrent les exemples ci-dessus.

Mais comment, en pratique, faciliter la coopération entre chercheurs et philosophes ? À première vue, la solution pourrait sembler évidente : chaque communauté devrait faire un pas vers l'autre. Pourtant, ce serait une erreur de considérer cette tâche comme facile. Les obstacles sont nombreux. Actuellement, un nombre important de philosophes dédaignent la science ou ne voient pas la pertinence de la science pour leur travail. Même parmi les philosophes qui privilégient le dialogue avec les chercheurs, rares sont ceux qui ont une bonne connaissance de la science la plus récente. À l'inverse, peu de chercheurs perçoivent les avantages que peuvent leur apporter les idées philosophiques. Dans le contexte scientifique actuel, dominé par une spécialisation croissante et des demandes de financement et de résultats de plus en plus importantes, seul un nombre très limité de chercheurs a le temps et l'opportunité d'être au courant des travaux produits par les philosophes sur la science, et encore moins de les lire.

 Pour surmonter ces difficultés, nous pensons qu'une série de recommandations simples, assez facile à mettre en œuvre, peuvent aider à combler le fossé entre la science et la philosophie. La reconnexion entre la philosophie et la science est à la fois hautement souhaitable et plus réalisable en pratique que ne le suggèrent les décennies d'éloignement qui les séparent.

1) Laisser plus de place à la philosophie dans les conférences scientifiques. Il s'agit d'un mécanisme très simple permettant aux chercheurs d'évaluer l'utilité potentielle des idées des philosophes pour leurs propres recherches. Réciproquement, davantage de chercheurs pourraient participer à des conférences de philosophie, en développant les efforts d'organisations telles que l'International Society for the History, Philosophy, and Social Studies of Biology, la Philosophy of Science Association et la Society for Philosophy of Science in Practice.

2) Accueillir des philosophes dans des laboratoires et des départements scientifiques. Il s'agit d'un moyen efficace (déjà exploré par certains des auteurs et d'autres) pour les philosophes d'apprendre la science et de fournir des analyses plus appropriées et bien fondées, et pour les chercheurs de bénéficier d'apports philosophiques et de s'acclimater à la philosophie en général. C'est peut-être le moyen le plus efficace d'aider la philosophie à avoir un impact rapide et concret sur la science.

3) Co-superviser des doctorants. La co-supervision de doctorants par un chercheur et un philosophe est une excellente occasion de rendre possible l'enrichissement mutuel des deux domaines. Elle facilite la production de thèses qui sont à la fois riches sur le plan expérimental et rigoureuses sur le plan conceptuel et, ce faisant, elle forme la prochaine génération de philosophes-scientifiques.

4) Créer des programmes d'études équilibrés en science et en philosophie qui favorisent un véritable dialogue entre elles. De tels programmes existent déjà dans certains pays, mais leur développement devrait être une priorité absolue. Ils peuvent offrir aux étudiants en sciences une perspective qui les rend plus aptes à relever les défis conceptuels de la science moderne et fournir aux philosophes une base solide de connaissances scientifiques qui maximisera leur impact sur la science. Les programmes d'enseignement des sciences peuvent inclure un cours d'histoire des sciences et de philosophie des sciences. Les programmes de philosophie pourraient inclure un module de sciences.

5) Lire science et philosophie. La lecture des sciences est indispensable à la pratique de la philosophie des sciences, mais la lecture de la philosophie peut également constituer une grande source d'inspiration pour les chercheurs, comme l'illustrent certains des exemples ci-dessus. Par exemple, les clubs de lecture où les contributions scientifiques et philosophiques sont discutées constituent un moyen efficace d'intégrer la philosophie et la science.

6) Ouvrir de nouvelles sections consacrées aux questions philosophiques et conceptuelles dans les revues scientifiques. Cette stratégie serait un moyen approprié et convaincant de suggérer que le travail philosophique et conceptuel est continu avec le travail expérimental, dans la mesure où il est inspiré par celui-ci, et peut l'inspirer en retour. Cela rendrait également les réflexions philosophiques sur un domaine scientifique particulier beaucoup plus visibles pour la communauté scientifique concernée que lorsqu'elles sont publiées dans des revues de philosophie, qui sont rarement lues par les scientifiques.

Nous espérons que les mesures pratiques exposées ci-dessus encourageront une renaissance de l'intégration de la science et de la philosophie. En outre, nous soutenons que le maintien d'une allégeance étroite à la philosophie renforcera la vitalité de la science. La science moderne sans la philosophie se heurtera à un mur : le déluge de données dans chaque domaine rendra l'interprétation de plus en plus difficile, négligence et ampleur ampleur de l'histoire risquent de séparer davantage les sous-disciplines scientifiques, et l'accent mis sur les méthodes et les résultats empiriques entraînera une formation de moins en moins approfondie des étudiants. Comme l'a écrit Carl Woese : "une société qui permet à la biologie de devenir une discipline d'ingénierie, qui permet à la science de se glisser dans le rôle de modifier le monde vivant sans essayer de le comprendre, est un danger pour elle-même." Nous avons besoin d'une revigoration de la science à tous les niveaux, une revigoration qui nous rende les bénéfices de liens étroits avec la philosophie.

Auteur: Internet

Info: https://hal.archives-ouvertes.fr/hal-02269657/document. " janvier 2020. Publication collective de Lucie Laplane, Paolo Mantovani, Ralph Adolphs, Hasok Chang, Alberto Mantovani, Margaret McFall-Ngai, Carlo Rovelli, Elliott Sober, et Thomas Pradeua. Trad Mg

[ mécanisme ] [ état des lieux ] [ corps-esprit ] [ tétravalences ] [ tour d'horizon ]

 

Commentaires: 0

Ajouté à la BD par miguel

consumérisme

Comment réguler l’exploitation de notre attention ? Dans Les marchands d’attention (The Attention Merchants, 2017, Atlantic Books, non traduit), le professeur de droit, spécialiste des réseaux et de la régulation des médias, Tim Wu (@superwuster), 10 ans après avoir raconté l’histoire des télécommunications et du développement d’internet dans The Master Switch (où il expliquait la tendance de l’industrie à créer des empires et le risque des industries de la technologie à aller dans le même sens), raconte, sur 400 pages, l’histoire de l’industrialisation des médias américains et de la publicité de la fin du XIXe siècle à aujourd’hui. En passant d’une innovation médiatique l’autre, des journaux à la radio, de la télé à l’internet, Wu tisse une très informée histoire du rapport de l’exploitation commerciale de l’information et du divertissement. Une histoire de l’industrialisation des médias américains qui se concentre beaucoup sur leurs innovations et leurs modèles d’affaires, c’est-à-dire qui s’attarde à montrer comment notre attention a été convertie en revenus, comment nous avons été progressivement cédés à la logique du commerce – sans qu’on n’y trouve beaucoup à redire d’ailleurs.

"La compétition pour notre attention n’a jamais cherché à nous élever, au contraire."

Tout le long de cette histoire, Tim Wu insiste particulièrement sur le fait que la capture attentionnelle produite par les médias s’est faite par-devers nous. La question attentionnelle est souvent présentée comme le résultat d’une négociation entre l’utilisateur, le spectateur, et le service ou média qu’il utilise… mais aucun d’entre nous n’a jamais consenti à la capture attentionnelle, à l’extraction de son attention. Il souligne notamment que celle-ci est plus revendue par les médias aux annonceurs, qu’utilisée par les médias eux-mêmes. Il insiste également à montrer que cette exploitation vise rarement à nous aider à être en contrôle, au contraire. Elle ne nous a jamais apporté rien d’autre que toujours plus de contenus insignifiants. Des premiers journaux à 1 cent au spam publicitaire, l’exploitation attentionnelle a toujours visé nos plus vils instincts. Elle n’a pas cherché à nous élever, à nous aider à grandir, à développer nos connaissances, à créer du bien commun, qu’à activer nos réactions les plus instinctives. Notre exploitation commerciale est allée de pair avec l’évolution des contenus. Les journaux qui ont adopté le modèle publicitaire, ont également inventé des rubriques qui n’existaient pas pour mieux les servir : comme les faits divers, les comptes-rendus de procès, les récits de crimes… La compétition pour notre attention dégrade toujours les contenus, rappelle Tim Wu. Elle nous tourne vers "le plus tapageur, le plus sinistre, le plus choquant, nous propose toujours l’alternative la plus scandaleuse ou extravagante". Si la publicité a incontestablement contribué à développer l’économie américaine, Wu rappelle qu’elle n’a jamais cherché à présenter une information objective, mais plutôt à déformer nos mécanismes de choix, par tous les moyens possibles, même par le mensonge. L’exploitation attentionnelle est par nature une course contre l’éthique. Elle est et demeure avant tout une forme d’exploitation. Une traite, comme disait le spécialiste du sujet Yves Citton, en usant volontairement de ce vocabulaire marqué au fer.

Wu souligne que l’industrie des contenus a plus été complice de cette exploitation qu’autre chose. La presse par exemple, n’a pas tant cherché à contenir ou réguler la publicité et les revenus qu’elle générait, qu’à y répondre, qu’à évoluer avec elle, notamment en faisant évoluer ses contenus pour mieux fournir la publicité. Les fournisseurs de contenus, les publicitaires, aidés des premiers spécialistes des études comportementales, ont été les courtiers et les ingénieurs de l’économie de l’attention. Ils ont transformé l’approche intuitive et improvisée des premières publicités en machines industrielles pour capturer massivement l’attention. Wu rappelle par exemple que les dentifrices, qui n’existaient pas vraiment avant les années 20, vont prendre leur essor non pas du fait de la demande, mais bien du fait de l’offensive publicitaire, qui s’est attaquée aux angoisses inconscientes des contemporains. Plus encore que des ingénieurs de la demande, ces acteurs ont été des fabricants de comportements, de moeurs…

L’histoire de l’exploitation de notre attention souligne qu’elle est sans fin, que "les industries qui l’exploitent, contrairement aux organismes, n’ont pas de limite à leur propre croissance". Nous disposons de très peu de modalités pour limiter l’extension et la croissance de la manipulation attentionnelle. Ce n’est pas pour autant que les usagers ne se sont pas régulièrement révoltés, contre leur exploitation. "La seule dynamique récurrente qui a façonné la course des industries de l’attention a été la révolte". De l’opposition aux premiers panneaux publicitaires déposés en pleine ville au rejet de services web qui capturent trop nos données ou exploitent trop notre attention, la révolte des utilisateurs semble avoir toujours réussi à imposer des formes de régulations. Mais l’industrie de l’exploitation attentionnelle a toujours répondu à ces révoltes, s’adaptant, évoluant au gré des rejets pour proposer toujours de nouvelles formes de contenus et d’exploitation. Parmi les outils dont nous nous sommes dotés pour réguler le développement de l’économie de l’attention, Wu évoque trop rapidement le travail des associations de consommateurs (via par exemple le test de produits ou les plaintes collectives…) ou celui des régulateurs définissant des limites au discours publicitaire (à l’image de la création de la Commission fédérale du commerce américaine et notamment du bureau de la protection des consommateurs, créée pour réguler les excès des annonceurs, que ce soit en améliorant l’étiquetage des produits ou en interdisant les publicités mensongères comme celles, nombreuses, ventant des produits capables de guérir des maladies). Quant à la concentration et aux monopoles, ils ont également toujours été surveillés et régulés, que ce soit par la création de services publics ou en forçant les empires des médias à la fragmentation.

L’attention, un phénomène d’assimilation commercial et culturel L’invention du prime time à la radio puis à la télé a été à la fois une invention commerciale et culturelle, fusionnant le contenu au contenant, l’information/divertissement et la publicité en inventant un rituel d’attention collective massive. Il n’a pas servi qu’à générer une exposition publicitaire inédite, il a créé un phénomène social, une conscience et une identité partagée, tout en rendant la question de l’exposition publicitaire normale et sociale.

Dans la succession des techniques qu’ont inventés les médias de masse pour mobiliser et orienter les foules que décrit Tim Wu, on constate qu’une sorte de cycle semble se reproduire. Les nouvelles technologies et les nouveaux formats rencontrent des succès très rapides. Puis, le succès rencontre des résistances et les audiences se délitent vers de nouvelles techniques ou de nouveaux formats proposés par des concurrents. On a l’impression d’être dans une course poursuite où chaque décennie pourrait être représentée par le succès d’un support phare à l’image des 28 courts chapitres qui scandent le livre. L’essor de la télévision par exemple est fulgurant : entre 1950 et 1956 on passe de 9% à 72% des maisons équipées et à la fin des années 50, on l’a regarde déjà 5 heures par jour en moyenne. Les effets de concentration semblent très rapides… et dès que la fatigue culturelle pointe, que la nouveauté s’émousse, une nouvelle vague de propositions se développe à la fois par de nouveaux formats, de nouvelles modalités de contrôle et de nouveaux objets attentionnels qui poussent plus loin l’exploitation commerciale des publics. Patiemment, Wu rappelle la très longue histoire des nouveaux formats de contenus : la naissance des jeux, des journaux télé, des soirées spéciales, du sport, des feuilletons et séries, de la télé-réalité aux réseaux sociaux… Chacun ayant généré une nouvelle intrication avec la publicité, comme l’invention des coupures publicitaires à la radio et à la télé, qui nécessitaient de réinventer les contenus, notamment en faisant monter l’intrigue pour que les gens restent accrochés. Face aux outils de révolte, comme l’invention de la télécommande ou du magnétoscope, outils de reprise du contrôle par le consommateur, les industries vont répondre par la télévision par abonnement, sans publicité. Elles vont aussi inventer un montage plus rapide qui ne va cesser de s’accélérer avec le temps.

Pour Wu, toute rébellion attentionnelle est sans cesse assimilée. Même la révolte contre la communication de masse, d’intellectuels comme Timothy Leary ou Herbert Marcuse, sera finalement récupérée.

De l’audience au ciblage

La mesure de l’audience a toujours été un enjeu industriel des marchands d’attention. Notamment avec l’invention des premiers outils de mesure de l’audimat permettant d’agréger l’audience en volumes. Wu prend le temps d’évoquer le développement de la personnalisation publicitaire, avec la socio-géo-démographie mise au point par la firme Claritas à la fin des années 70. Claritas Prizm, premier outil de segmentation de la clientèle, va permettre d’identifier différents profils de population pour leur adresser des messages ciblés. Utilisée avec succès pour l’introduction du Diet Coke en 1982, la segmentation publicitaire a montré que la nation américaine était une mosaïque de goûts et de sensibilités qu’il fallait adresser différemment. Elle apporte à l’industrie de la publicité un nouvel horizon de consommateurs, préfigurant un ciblage de plus en plus fin, que la personnalisation de la publicité en ligne va prolonger toujours plus avant. La découverte des segments va aller de pair avec la différenciation des audiences et la naissance, dans les années 80, des chaînes câblées qui cherchent à exploiter des populations différentes (MTV pour la musique, ESPN pour le sport, les chaînes d’info en continu…). L’industrie du divertissement et de la publicité va s’engouffrer dans l’exploitation de la fragmentation de l’audience que le web tentera de pousser encore plus loin.

Wu rappelle que la technologie s’adapte à ses époques : "La technologie incarne toujours l’idéologie, et l’idéologie en question était celle de la différence, de la reconnaissance et de l’individualité". D’un coup le spectateur devait avoir plus de choix, plus de souveraineté… Le visionnage lui-même changeait, plus inattentif et dispersé. La profusion de chaînes et le développement de la télécommande se sont accompagnés d’autres modalités de choix comme les outils d’enregistrements. La publicité devenait réellement évitable. D’où le fait qu’elle ait donc changé, devenant plus engageante, cherchant à devenir quelque chose que les gens voudraient regarder. Mais dans le même temps, la télécommande était aussi un moyen d’être plus branché sur la manière dont nous n’agissons pas rationnellement, d’être plus distraitement attentif encore, à des choses toujours plus simples. "Les technologies conçues pour accroître notre contrôle sur notre attention ont parfois un effet opposé", prévient Wu. "Elles nous ouvrent à un flux de sélections instinctives et de petites récompenses"… En fait, malgré les plaintes du monde de la publicité contre la possibilité de zapper, l’état d’errance distrait des spectateurs n’était pas vraiment mauvais pour les marchands d’attention. Dans l’abondance de choix, dans un système de choix sans friction, nous avons peut-être plus perdu d’attention qu’autre chose.

L’internet a démultiplié encore, par de nouvelles pratiques et de nouveaux médiums, ces questions attentionnelles. L’e-mail et sa consultation sont rapidement devenus une nouvelle habitude, un rituel attentionnel aussi important que le prime time. Le jeu vidéo dès ses débuts a capturé toujours plus avant les esprits.

"En fin de compte, cela suggère aussi à quel point la conquête de l’attention humaine a été incomplète entre les années 1910 et les années 60, même après l’entrée de la télévision à la maison. En effet, même s’il avait enfreint la sphère privée, le domaine de l’interpersonnel demeurait inviolable. Rétrospectivement, c’était un territoire vierge pour les marchands d’attention, même si avant l’introduction de l’ordinateur domestique, on ne pouvait pas concevoir comment cette attention pourrait être commercialisée. Certes, personne n’avait jamais envisagé la possibilité de faire de la publicité par téléphone avant même de passer un appel – non pas que le téléphone ait besoin d’un modèle commercial. Ainsi, comme AOL qui a finalement opté pour la revente de l’attention de ses abonnés, le modèle commercial du marchand d’attention a été remplacé par l’un des derniers espaces considérés comme sacrés : nos relations personnelles." Le grand fournisseur d’accès des débuts de l’internet, AOL, a développé l’accès aux données de ses utilisateurs et a permis de développer des techniques de publicité dans les emails par exemple, vendant également les mails de ses utilisateurs à des entreprises et leurs téléphones à des entreprises de télémarketing. Tout en présentant cela comme des "avantages" réservés à ses abonnés ! FB n’a rien inventé ! "

La particularité de la modernité repose sur l’idée de construire une industrie basée sur la demande à ressentir une certaine communion". Les célébrités sont à leur tour devenues des marchands d’attention, revendant les audiences qu’elles attiraient, à l’image d’Oprah Winfrey… tout en transformant la consommation des produits qu’elle proposait en méthode d’auto-récompense pour les consommateurs.

L’infomercial a toujours été là, souligne Wu. La frontière entre divertissement, information et publicité a toujours été floue. La télé-réalité, la dernière grande invention de format (qui va bientôt avoir 30 ans !) promettant justement l’attention ultime : celle de devenir soi-même star.

Le constat de Wu est amer. "Le web, en 2015, a été complètement envahi par la malbouffe commerciale, dont une grande partie visait les pulsions humaines les plus fondamentales du voyeurisme et de l’excitation." L’automatisation de la publicité est le Graal : celui d’emplacements parfaitement adaptés aux besoins, comme un valet de chambre prévenant. "Tout en promettant d’être utile ou réfléchi, ce qui a été livré relevait plutôt de l’intrusif et pire encore." La télévision – la boîte stupide -, qui nous semblait si attentionnellement accablante, paraît presque aujourd’hui vertueuse par rapport aux boucles attentionnelles sans fin que produisent le web et le mobile.

Dans cette histoire, Wu montre que nous n’avons cessé de nous adapter à cette capture attentionnelle, même si elle n’a cessé de se faire à notre détriment. Les révoltes sont régulières et nécessaires. Elles permettent de limiter et réguler l’activité commerciale autour de nos capacités cognitives. Mais saurons-nous délimiter des frontières claires pour préserver ce que nous estimons comme sacré, notre autonomie cognitive ? La montée de l’internet des objets et des wearables, ces objets qui se portent, laisse supposer que cette immixtion ira toujours plus loin, que la régulation est une lutte sans fin face à des techniques toujours plus invasives. La difficulté étant que désormais nous sommes confrontés à des techniques cognitives qui reposent sur des fonctionnalités qui ne dépendent pas du temps passé, de l’espace ou de l’emplacement… À l’image des rythmes de montage ou des modalités de conception des interfaces du web. Wu conclut en souhaitant que nous récupérions "la propriété de l’expérience même de la vie". Reste à savoir comment…

Comment répondre aux monopoles attentionnels ?

Tim Wu – qui vient de publier un nouveau livre The Curse of Bigness : antitrust in the new Gilded age (La malédiction de la grandeur, non traduit) – prône, comme d’autres, un renforcement des lois antitrusts américaines. Il y invite à briser les grands monopoles que construisent les Gafam, renouvelant par là la politique américaine qui a souvent cherché à limiter l’emprise des monopoles comme dans le cas des télécommunications (AT&T), de la radio ou de la télévision par exemple ou de la production de pétrole (Standard Oil), pour favoriser une concurrence plus saine au bénéfice de l’innovation. À croire finalement que pour lutter contre les processus de capture attentionnels, il faut peut-être passer par d’autres leviers que de chercher à réguler les processus attentionnels eux-mêmes ! Limiter le temps d’écran finalement est peut-être moins important que limiter la surpuissance de quelques empires sur notre attention !

La règle actuelle pour limiter le développement de monopoles, rappelle Wu dans une longue interview pour The Verge, est qu’il faut démontrer qu’un rachat ou une fusion entraînera une augmentation des prix pour le consommateur. Outre, le fait que c’est une démonstration difficile, car spéculative, "il est pratiquement impossible d’augmenter les prix à la consommation lorsque les principaux services Internet tels que Google et Facebook sont gratuits". Pour plaider pour la fragmentation de ces entreprises, il faudrait faire preuve que leur concentration produit de nouveaux préjudices, comme des pratiques anticoncurrentielles quand des entreprises absorbent finalement leurs concurrents. Aux États-Unis, le mouvement New Brandeis (qui fait référence au juge Louis Brandeis acteur majeur de la lutte contre les trusts) propose que la régulation favorise la compétition.

Pour Wu par exemple, la concurrence dans les réseaux sociaux s’est effondrée avec le rachat par Facebook d’Instagram et de WhatsApp. Et au final, la concurrence dans le marché de l’attention a diminué. Pour Wu, il est temps de défaire les courtiers de l’attention, comme il l’explique dans un article de recherche qui tente d’esquisser des solutions concrètes. Il propose par exemple de créer une version attentionnelle du test du monopoleur hypothétique, utilisé pour mesurer les abus de position dominante, en testant l’influence de la publicité sur les pratiques. Pour Tim Wu, il est nécessaire de trouver des modalités à l’analyse réglementaire des marchés attentionnels.

Dans cet article, Wu s’intéresse également à la protection des audiences captives, à l’image des écrans publicitaires des pompes à essence qui vous délivrent des messages sans pouvoir les éviter où ceux des écrans de passagers dans les avions… Pour Wu, ces nouvelles formes de coercition attentionnelle sont plus qu’un ennui, puisqu’elles nous privent de la liberté de penser et qu’on ne peut les éviter. Pour lui, il faudrait les caractériser comme un "vol attentionnel". Certes, toutes les publicités ne peuvent pas être caractérisées comme telles, mais les régulateurs devraient réaffirmer la question du consentement souligne-t-il, notamment quand l’utilisateur est captif ou que la capture cognitive exploite nos biais attentionnels sans qu’on puisse lutter contre. Et de rappeler que les consommateurs doivent pouvoir dépenser ou allouer leur attention comme ils le souhaitent. Que les régulateurs doivent chercher à les protéger de situations non consensuelles et sans compensation, notamment dans les situations d’attention captive ainsi que contre les intrusions inévitables (celles qui sont augmentées par un volume sonore élevé, des lumières clignotantes, etc.). Ainsi, les publicités de pompe à essence ne devraient être autorisées qu’en cas de compensation pour le public (par exemple en proposant une remise sur le prix de l’essence)…

Wu indique encore que les réglementations sur le bruit qu’ont initié bien des villes peuvent être prises pour base pour construire des réglementations de protection attentionnelle, tout comme l’affichage sur les autoroutes, également très réglementé. Pour Tim Wu, tout cela peut sembler peut-être peu sérieux à certain, mais nous avons pourtant imposé par exemple l’interdiction de fumer dans les avions sans que plus personne aujourd’hui n’y trouve à redire. Il est peut-être temps de prendre le bombardement attentionnel au sérieux. En tout cas, ces défis sont devant nous, et nous devrons trouver des modalités pour y répondre, conclut-il.

Auteur: Guillaud Hubert

Info: 27 décembre 2018, http://internetactu.blog.lemonde.fr

[ culture de l'epic fail ] [ propagande ] [ captage de l'attention ]

 

Commentaires: 0

Ajouté à la BD par miguel

physique fondamentale

La "problèmatique de la mesure" en théorie quantique pourrait être une pilule empoisonnée pour la réalité objective

La résolution d'un problème quantique notoire pourrait nécessiter l'abandon de certaines des hypothèses les plus chères à la science concernant le monde physique.

Imaginez qu'un physicien observe un système quantique dont le comportement s'apparente à celui d'une pièce de monnaie : qui peut tomber sur pile ou face. Il effectue le jeu de pile ou face quantique et obtient pile. Pourrait-il être certain que son résultat est un fait objectif, absolu et indiscutable sur le monde ? Si la pièce était simplement du type de celles que nous voyons dans notre expérience quotidienne, le résultat du lancer serait le même pour tout le monde : pile ou face ! Mais comme pour la plupart des choses en physique quantique, le résultat d'un jeu de pile ou face quantique serait un "ça dépend" beaucoup plus compliqué. Il existe des scénarios théoriquement plausibles dans lesquels un autre observateur pourrait trouver que le résultat de la pièce de notre physicien est pile ou face.

Au cœur de cette bizarrerie se trouve ce que l'on appelle le problème de la mesure. La mécanique quantique standard rend compte de ce qui se passe lorsque l'on mesure un système quantique : en substance, la mesure provoque l'"effondrement" aléatoire des multiples états possibles du système en un seul état défini. Mais cette comptabilité ne définit pas ce qui constitue une mesure, d'où le problème de la mesure.

Les tentatives visant à éviter le problème de la mesure, par exemple en envisageant une réalité dans laquelle les états quantiques ne s'effondrent pas du tout, ont conduit les physiciens sur un terrain étrange où les résultats des mesures peuvent être subjectifs. "L'un des principaux aspects du problème de la mesure est l'idée que les événements observés ne sont pas absolus", explique Nicholas Ormrod, de l'université d'Oxford. En bref, c'est la raison pour laquelle notre pile ou face quantique imaginaire pourrait être pile d'un point de vue et face d'un autre.

Mais ce scénario apparemment problématique est-il physiquement plausible ou s'agit-il simplement d'un artefact de notre compréhension incomplète du monde quantique ? Pour répondre à ces questions, il faut mieux comprendre les théories dans lesquelles le problème de la mesure peut se poser. C'est exactement ce qu'Ormrod, Vilasini Venkatesh de l'École polytechnique fédérale de Zurich et Jonathan Barrett d'Oxford ont réussi à faire. Dans une prépublication récente, le trio a prouvé un théorème qui montre pourquoi certaines théories, comme la mécanique quantique, ont un problème de mesure en premier lieu et comment on pourrait développer des théories alternatives pour l'éviter, préservant ainsi l'"absoluité" de tout événement observé. De telles théories banniraient, par exemple, la possibilité qu'une pièce de monnaie soit tirée à pile ou face par un observateur et qu'elle soit tirée à pile ou face par un autre.

Mais leurs travaux montrent également que la préservation d'un tel caractère absolu a un coût que de nombreux physiciens jugeraient prohibitif. "C'est la démonstration qu'il n'existe pas de solution indolore à ce problème", explique M. Ormrod. "Si nous parvenons un jour à retrouver l'absoluité, nous devrons alors renoncer à certains principes physiques qui nous tiennent vraiment à cœur".

 L'article d'Ormrod, Venkatesh et Barrett "aborde la question de savoir quelles catégories de théories sont incompatibles avec l'absoluité des événements observés et si l'absoluité peut être maintenue dans certaines théories, en même temps que d'autres propriétés souhaitables", explique Eric Cavalcanti, de l'université Griffith, en Australie. (M. Cavalcanti, le physicien Howard Wiseman et leurs collègues ont défini le terme "absoluité des événements observés" dans des travaux antérieurs qui ont jeté les bases de l'étude d'Ormrod, Venkatesh et Barrett).

S'en tenir à l'absoluité des événements observés pourrait signifier que le monde quantique est encore plus étrange que ce que nous savons.

LE CŒUR DU PROBLÈME

Pour comprendre ce qu'Ormrod, Venkatesh et Barrett ont réalisé, il faut suivre un cours accéléré sur les arcanes des fondations quantiques. Commençons par considérer notre système quantique hypothétique qui, lorsqu'il est observé, peut donner soit pile, soit face.

Dans les manuels de théorie quantique, avant l'effondrement, on dit que le système se trouve dans une superposition de deux états, et cet état quantique est décrit par une construction mathématique appelée fonction d'onde, qui évolue dans le temps et l'espace. Cette évolution est à la fois déterministe et réversible : étant donné une fonction d'onde initiale, on peut prédire ce qu'elle sera à un moment donné, et on peut en principe remonter l'évolution pour retrouver l'état antérieur. La mesure de la fonction d'onde entraîne cependant son effondrement, mathématiquement parlant, de sorte que le système de notre exemple apparaît comme étant soit pile, soit face.

Ce processus d'effondrement est la source obscure du problème de la mesure : il s'agit d'une affaire irréversible et unique, et personne ne sait même ce qui définit le processus ou les limites de la mesure. Qu'est-ce qu'une "mesure" ou, d'ailleurs, un "observateur" ? Ces deux éléments ont-ils des contraintes physiques, telles que des tailles minimales ou maximales ? Doivent-ils également être soumis à divers effets quantiques difficiles à saisir, ou peuvent-ils être considérés comme immunisés contre de telles complications ? Aucune de ces questions n'a de réponse facile et acceptée, mais les théoriciens ne manquent pas de solutions.

Étant donné le système de l'exemple, un modèle qui préserve l'absoluité de l'événement observé - c'est-à-dire que c'est soit pile, soit face pour tous les observateurs - est la théorie de Ghirardi-Rimini-Weber (GRW). Selon cette théorie, les systèmes quantiques peuvent exister dans une superposition d'états jusqu'à ce qu'ils atteignent une taille encore indéterminée, à partir de laquelle la superposition s'effondre spontanément et aléatoirement, indépendamment de l'observateur. Quel que soit le résultat - pile ou face dans notre exemple - il sera valable pour tous les observateurs.

Mais la théorie GRW, qui appartient à une catégorie plus large de théories de "l'effondrement spontané", semble aller à l'encontre d'un principe physique chéri depuis longtemps : la préservation de l'information. Tout comme un livre brûlé pourrait, en principe, être lu en réassemblant ses pages à partir de ses cendres (en ignorant l'émission initiale de rayonnement thermique du livre brûlé, pour des raisons de simplicité), la préservation de l'information implique que l'évolution d'un système quantique dans le temps permette de connaître ses états antérieurs. En postulant un effondrement aléatoire, la théorie GRW détruit la possibilité de savoir ce qui a conduit à l'état d'effondrement, ce qui, selon la plupart des témoignages, signifie que l'information sur le système avant sa transformation est irrémédiablement perdue. "La théorie GRW serait un modèle qui renonce à la préservation de l'information, préservant ainsi l'absoluité des événements", explique M. Venkatesh.

Un contre-exemple qui autorise la non-absoluité des événements observés est l'interprétation de la mécanique quantique selon le principe des "mondes multiples". Selon cette interprétation, la fonction d'onde de notre exemple se ramifiera en de multiples réalités contemporaines, de sorte que dans un "monde", le système sortira pile, tandis que dans un autre, il sortira face. Dans cette conception, il n'y a pas d'effondrement. "La question de savoir ce qui se passe n'est donc pas absolue ; elle est relative à un monde", explique M. Ormrod. Bien entendu, en essayant d'éviter le problème de mesure induit par l'effondrement, l'interprétation des mondes multiples introduit la ramification abrutissante des fonctions d'onde et la prolifération galopante des mondes à chaque bifurcation de la route quantique - un scénario désagréable pour beaucoup.

Néanmoins, l'interprétation des mondes multiples est un exemple de ce que l'on appelle les théories perspectivistes, dans lesquelles le résultat d'une mesure dépend du point de vue de l'observateur.

ASPECTS CRUCIAUX DE LA RÉALITÉ

Pour prouver leur théorème sans s'embourber dans une théorie ou une interprétation particulière, mécanique quantique ou autre, Ormrod, Venkatesh et Barrett se sont concentrés sur les théories perspectivistes qui obéissent à trois propriétés importantes. Une fois encore, il nous faut un peu de courage pour saisir l'importance de ces propriétés et pour apprécier le résultat plutôt profond de la preuve des chercheurs.

La première propriété est appelée nonlocalité de Bell (B). Elle fut identifiée pour la première fois en 1964 par le physicien John Bell dans un théorème éponyme et s'est avérée être un fait empirique incontesté de notre réalité physique. Supposons qu'Alice et Bob aient chacun accès à l'une des deux particules décrites par un état unique. Alice et Bob effectuent des mesures individuelles de leurs particules respectives et le font pour un certain nombre de paires de particules préparées de manière similaire. Alice choisit son type de mesure librement et indépendamment de Bob, et vice versa. Le fait qu'Alice et Bob choisissent leurs paramètres de mesure de leur plein gré est une hypothèse importante. Ensuite, lorsqu'ils compareront leurs résultats, le duo constatera que les résultats de leurs mesures sont corrélés d'une manière qui implique que les états des deux particules sont inséparables : connaître l'état de l'une permet de connaître l'état de l'autre. Les théories capables d'expliquer de telles corrélations sont dites non locales de Bell.

La deuxième propriété est la préservation de l'information (I). Les systèmes quantiques qui présentent une évolution déterministe et réversible satisfont à cette condition. Mais la condition est plus générale. Imaginez que vous portiez aujourd'hui un pull-over vert. Dans une théorie préservant l'information, il devrait toujours être possible, en principe, de retrouver la couleur de votre pull dans dix ans, même si personne ne vous a vu le porter. Mais "si le monde ne préserve pas l'information, il se peut que dans 10 ans, il n'y ait tout simplement aucun moyen de savoir de quelle couleur était le pull que je portais", explique M. Ormrod.

La troisième est une propriété appelée dynamique locale (L). Considérons deux événements dans deux régions de l'espace-temps. S'il existe un cadre de référence dans lequel les deux événements semblent simultanés, on dit que les régions de l'espace sont "séparées comme dans l'espace". La dynamique locale implique que la transformation d'un système dans l'une de ces régions ne peut affecter causalement la transformation d'un système dans l'autre région à une vitesse supérieure à celle de la lumière, et vice versa, une transformation étant toute opération qui prend un ensemble d'états d'entrée et produit un ensemble d'états de sortie. Chaque sous-système subit sa propre transformation, de même que le système dans son ensemble. Si la dynamique est locale, la transformation du système complet peut être décomposée en transformations de ses parties individuelles : la dynamique est dite séparable. "La [contrainte] de la dynamique locale permet de s'assurer que l'on ne simule pas Bell [la non-localité]", explique M. Venkatesh.

Dans la théorie quantique, les transformations peuvent être décomposées en leurs éléments constitutifs. "La théorie quantique est donc dynamiquement séparable", explique M. Ormrod. En revanche, lorsque deux particules partagent un état non local de Bell (c'est-à-dire lorsque deux particules sont intriquées, selon la théorie quantique), on dit que l'état est inséparable des états individuels des deux particules. Si les transformations se comportaient de la même manière, c'est-à-dire si la transformation globale ne pouvait pas être décrite en termes de transformations de sous-systèmes individuels, alors le système entier serait dynamiquement inséparable.

Tous les éléments sont réunis pour comprendre le résultat du trio. Le travail d'Ormrod, Venkatesh et Barrett se résume à une analyse sophistiquée de la manière dont les théories "BIL" (celles qui satisfont aux trois propriétés susmentionnées) traitent une expérience de pensée faussement simple. Imaginons qu'Alice et Bob, chacun dans son propre laboratoire, effectuent une mesure sur l'une des deux particules. Alice et Bob effectuent chacun une mesure, et tous deux effectuent exactement la même mesure. Par exemple, ils peuvent tous deux mesurer le spin de leur particule dans le sens haut-bas.

Charlie et Daniela observent Alice et Bob et leurs laboratoires de l'extérieur. En principe, Charlie et Daniela devraient pouvoir mesurer le spin des mêmes particules, par exemple dans le sens gauche-droite. Dans une théorie préservant l'information, cela devrait être possible.

Prenons l'exemple spécifique de ce qui pourrait se produire dans la théorie quantique standard. Charlie, par exemple, considère Alice, son laboratoire et la mesure qu'elle effectue comme un système soumis à une évolution déterministe et réversible. En supposant qu'il contrôle totalement le système dans son ensemble, Charlie peut inverser le processus de manière à ce que la particule revienne à son état d'origine (comme un livre brûlé qui serait reconstitué à partir de ses cendres). Daniela fait de même avec Bob et son laboratoire. Charlie et Daniela effectuent maintenant chacun une mesure différente sur leurs particules respectives dans le sens gauche-droite.

En utilisant ce scénario, l'équipe a prouvé que les prédictions de toute théorie de la BIL pour les résultats des mesures des quatre observateurs contredisent le caractère absolu des événements observés. En d'autres termes, "toutes les théories de la BIL ont un problème de mesure", explique M. Ormrod.

CHOISISSEZ VOTRE POISON

Les physiciens se trouvent donc dans une impasse désagréable : soit ils acceptent le caractère non absolu des événements observés, soit ils renoncent à l'une des hypothèses de la théorie de la BIL.

Venkatesh pense qu'il y a quelque chose de convaincant dans le fait de renoncer à l'absoluité des événements observés. Après tout, dit-elle, la physique a réussi à passer d'un cadre newtonien rigide à une description einsteinienne de la réalité, plus nuancée et plus fluide. "Nous avons dû ajuster certaines notions de ce que nous pensions être absolu. Pour Newton, l'espace et le temps étaient absolus", explique M. Venkatesh. Mais dans la conception de l'univers d'Albert Einstein, l'espace et le temps ne font qu'un, et cet espace-temps unique n'est pas quelque chose d'absolu mais peut se déformer d'une manière qui ne correspond pas au mode de pensée newtonien.

D'autre part, une théorie perspectiviste qui dépend des observateurs crée ses propres problèmes. En particulier, comment peut-on faire de la science dans les limites d'une théorie où deux observateurs ne peuvent pas se mettre d'accord sur les résultats des mesures ? "Il n'est pas évident que la science puisse fonctionner comme elle est censée le faire si nous ne parvenons pas à des prédictions pour des événements observés que nous considérons comme absolus", explique M. Ormrod.

Donc, si l'on insiste sur le caractère absolu des événements observés, il faut faire un compromis. Ce ne sera pas la non-localité de Bell ou la préservation de l'information : la première repose sur des bases empiriques solides, et la seconde est considérée comme un aspect important de toute théorie de la réalité. L'accent est mis sur la dynamique locale, en particulier sur la séparabilité dynamique.

La séparabilité dynamique est "une sorte d'hypothèse du réductionnisme", explique M. Ormrod. "On peut expliquer les grandes choses en termes de petits morceaux.

Le fait de préserver le caractère absolu des événements observés pourrait signifier que ce réductionnisme ne tient pas : tout comme un état non local de Bell ne peut être réduit à certains états constitutifs, il se peut que la dynamique d'un système soit également holistique, ce qui ajoute un autre type de nonlocalité à l'univers. Il est important de noter que le fait d'y renoncer ne met pas une théorie en porte-à-faux avec les théories de la relativité d'Einstein, tout comme les physiciens ont soutenu que la non-localité de Bell ne nécessite pas d'influences causales superluminales ou non locales, mais simplement des états non séparables.

"Peut-être que la leçon de Bell est que les états des particules distantes sont inextricablement liés, et que la leçon des nouveaux théorèmes est que leur dynamique l'est aussi", ont écrit Ormrod, Venkatesh et Barrett dans leur article.

"J'aime beaucoup l'idée de rejeter la séparabilité dynamique, car si cela fonctionne, alors ... nous aurons le beurre et l'argent du beurre", déclare Ormrod. "Nous pouvons continuer à croire ce que nous considérons comme les choses les plus fondamentales du monde : le fait que la théorie de la relativité est vraie, que l'information est préservée, et ce genre de choses. Mais nous pouvons aussi croire à l'absoluité des événements observés".

Jeffrey Bub, philosophe de la physique et professeur émérite à l'université du Maryland, College Park, est prêt à avaler quelques pilules amères si cela signifie vivre dans un univers objectif. "Je voudrais m'accrocher à l'absoluité des événements observés", déclare-t-il. "Il me semble absurde d'y renoncer simplement à cause du problème de la mesure en mécanique quantique. À cette fin, Bub pense qu'un univers dans lequel les dynamiques ne sont pas séparables n'est pas une si mauvaise idée. "Je pense que je serais provisoirement d'accord avec les auteurs pour dire que la non-séparabilité [dynamique] est l'option la moins désagréable", déclare-t-il.

Le problème est que personne ne sait encore comment construire une théorie qui rejette la séparabilité dynamique - à supposer qu'elle soit possible à construire - tout en conservant les autres propriétés telles que la préservation de l'information et la non-localité de Bell.

UNE NON LOCALITÉ PLUS PROFONDE

Howard Wiseman, de l'université Griffith, qui est considéré comme une figure fondatrice de ces réflexions théoriques, apprécie l'effort d'Ormrod, Venkatesh et Barrett pour prouver un théorème qui s'applique à la mécanique quantique sans lui être spécifique. "C'est bien qu'ils poussent dans cette direction", déclare-t-il. "Nous pouvons dire des choses plus générales sans faire référence à la mécanique quantique.

 Il souligne que l'expérience de pensée utilisée dans l'analyse ne demande pas à Alice, Bob, Charlie et Daniela de faire des choix - ils font toujours les mêmes mesures. Par conséquent, les hypothèses utilisées pour prouver le théorème n'incluent pas explicitement une hypothèse sur la liberté de choix, car personne n'exerce un tel choix. Normalement, moins il y a d'hypothèses, plus la preuve est solide, mais ce n'est peut-être pas le cas ici, explique Wiseman. En effet, la première hypothèse, selon laquelle la théorie doit tenir compte de la non-localité de Bell, exige que les agents soient dotés d'un libre arbitre. Tout test empirique de la non-localité de Bell implique qu'Alice et Bob choisissent de leur plein gré les types de mesures qu'ils effectuent. Par conséquent, si une théorie est nonlocale au sens de Bell, elle reconnaît implicitement le libre arbitre des expérimentateurs. "Ce que je soupçonne, c'est qu'ils introduisent subrepticement une hypothèse de libre arbitre", déclare Wiseman.

Cela ne veut pas dire que la preuve est plus faible. Au contraire, elle aurait été plus forte si elle n'avait pas exigé une hypothèse de libre arbitre. En l'occurrence, le libre arbitre reste une exigence. Dans ces conditions, la portée la plus profonde de ce théorème pourrait être que l'univers est non local d'une manière entièrement nouvelle. Si tel est le cas, cette nonlocalité serait égale ou supérieure à la nonlocalité de Bell, dont la compréhension a ouvert la voie aux communications quantiques et à la cryptographie quantique. Personne ne sait ce qu'un nouveau type de nonlocalité - suggéré par la non-séparabilité dynamique - signifierait pour notre compréhension de l'univers.

En fin de compte, seules les expériences permettront de trouver la bonne théorie, et les physiciens quantiques ne peuvent que se préparer à toute éventualité. "Indépendamment de l'opinion personnelle de chacun sur la meilleure [théorie], toutes doivent être explorées", déclare M. Venkatesh. "En fin de compte, nous devrons examiner les expériences que nous pouvons réaliser. Cela pourrait être dans un sens ou dans l'autre, et il est bon de s'y préparer."

Auteur: Internet

Info: https://www.scientificamerican.com, Par Anil Ananthaswamy le 22 mai 2023

[ enchevêtrement quantique ] [ régions de l'espace-temps ] [ monde subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel