Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 3067
Temps de recherche: 0.0538s

hiérarchie cosmique

Les hypercivilisations et l’hypothèse des extraterrestres primitifs

De plus en plus de spécialistes admettent que la vie est partout dans l’Univers et que trois-quatre milliards d’années de conditions favorables, durables sur une planète, assurent l’émergence et le développement d’êtres intelligents et éventuellement la naissance d’une "civilisation technologique", capable de construire des vaisseaux spatiaux, pour voyager vers d’autres planètes habitables.

Ces conditions, bien que rares, se retrouvent en de nombreux endroits dans l’immensité de l’univers. Sur cette base, l’hypothèse extraterrestre est devenue le moyen le plus facile d’expliquer le phénomène OVNI.

D’un autre côté, des ufologues prestigieux, dont le Dr J. Allen Hynek ou Jacques Vallée, ont remis en question cette explication. Avec les sceptiques purs et durs, ils ont mentionné, entre autres, que les distances entre les civilisations sont trop grandes pour de tels voyages cosmiques.

Mais, comme je l’ai soutenu dans mon récent livre "UFOs over Romania", si nous adoptons une approche appropriée, nous découvrirons que les distances les plus importantes entre les civilisations cosmiques ne sont pas celles de l’espace mais celles du temps.

J’ai estimé que, dans l’histoire de notre Galaxie, un certain nombre de civilisations technologiques ont pu voir le jour, dont quelques centaines ont survécu aux maladies infantiles (auxquelles nous sommes confrontés sur Terre) et existent toujours.

Mais ces civilisations ne sont pas apparues simultanément. Par exemple, en juillet 2015, on a annoncé la découverte, à 1 400 années-lumière de la Terre, de l’exoplanète Kepler 452b.

Elle est similaire à la Terre et orbite dans la zone habitable d’une étoile semblable au Soleil. Ce système solaire est plus vieux d’un milliard d’années que le nôtre. Cela signifie que la vie et une éventuelle civilisation technologique pourraient y être apparues un milliard d’années plus tôt que sur Terre.

Plus généralement, les premières civilisations technologiques dans la Voie lactée pourraient apparaître il y a un milliard d’années, ou même avant.

Par conséquent, nous comprenons que les civilisations possibles dans le Cosmos sont très éloignées les unes des autres non seulement dans l’espace, mais aussi dans le temps. Dans notre Galaxie, ces quelques centaines de civilisations survivantes, estimées ci-dessus, sont apparues, très probablement, une fois tous les quelques millions d’années. Par conséquent, dans la Voie lactée, il n’existe aucune civilisation proche de notre niveau.

Qu’adviendra-t-il de notre civilisation (si elle survit) dans des millions (ou des milliards) d’années ? Il est impossible de l’imaginer. Nous n’oublions pas que nous ne sommes pas en mesure de prévoir notre avenir, même dans une perspective de quelques centaines d’années seulement. À quoi ressembleraient les habitants d’une civilisation qui nous aurait devancés de plusieurs millions d’années ?

Peut-être sont-ils devenus immortels, peut-être le temps et l’espace ne comptent-ils pas pour eux, peut-être se sont-ils déplacés dans une réalité virtuelle omniprésente, dans d’autres dimensions, etc. Mais la véritable réponse est très certainement encore plus complexe et défie notre logique et notre imagination. Nous pouvons toutefois accepter qu’ils se soient transformés en quelque chose d’autre, au-delà de notre compréhension, en quelque chose que nous pouvons nommer une "hypercivilisation".

Si quelqu’un considère que nous avons été trop optimistes et que les êtres intelligents sont beaucoup plus rares, nous devrions ajouter que notre Voie lactée n’est qu’une des 150 milliards de galaxies de l’Univers, plus ou moins semblables, accessibles à nos instruments. Et nous avons de fortes raisons de croire qu’il existe aussi d’autres Univers, peut-être des Univers "parallèles", peut-être d’autres états de la matière, ou des parties d’un "Multivers", etc.

La scolarisation et la science-fiction, mais pas seulement, ont fixé nos esprits sur des schémas ignorant complètement la possibilité d’hypercivilisations. Par conséquent, nous sommes confrontés à deux "hypothèses extraterrestres" : la première est ce que nous pourrions appeler "l’hypothèse des extraterrestres primitifs", l’autre celle des hypercivilisations.

L' "hypothèse des extraterrestres primitifs" suppose que toutes les civilisations cosmiques sont plus ou moins au même niveau d’évolution. Elle nourrit donc de fausses idées préconçues telles que : des voyages cosmiques très longs et difficiles, le désir d’atterrir sur la pelouse de la Maison Blanche, l’égalité des droits, la conversation, l’invasion, l’intervention, l’aide et ainsi de suite.

Cette vision primitive est totalement invraisemblable. Si les hypercivilisations existent (et elles existent, avec une probabilité de 99,999999%) elles ont exploité, dans les moindres détails, notre Galaxie, il y a des millions d’années, donc elles connaissent, depuis longtemps, notre existence. Ce raisonnement a conduit Enrico Fermi, quand il a dit, en 1950 : "ils devraient être ici ; où sont-ils ?"

Mais ni lui, ni beaucoup d’autres, n’ont envisagé que des représentants d’hypercivilisations pourraient être ici, parmi nous, mais pourraient avoir une apparence si différente de nos attentes que nous ne pourrions pas les reconnaître. Ce qui nous empêche de les voir, c’est aussi un ensemble de préjugés répandus et profondément enracinés, comme ceux qui suivent.

L’idée préconçue de l’égalité des droits. Une différence de plusieurs millions d’années, voire de centaines de millions, est aussi énorme qu’entre nous et un lézard ou même une fourmi.

S’ils sont là (comme c’est très probable), ils peuvent nous examiner, suivre notre évolution, voire nous contacter sous une forme ou une autre, mais ils ne se mettront jamais au même niveau que nous.

L’idée préconçue de la conversation. En 1959 déjà, Giuseppe Cocconi et Philip Morrison affirmaient que si la différence entre deux civilisations est de plusieurs millions d’années, la probabilité qu’elles puissent échanger des idées est nulle. Nous interagissons parfois avec un lézard ; mais il ne s’agira jamais d’une conversation, disaient-ils.

Le provincialisme temporel (terme utilisé par le Dr J. Allen Hynek). Il affirme qu’en opposition avec les siècles sombres précédents, les trois-quatre cents dernières années nous ont finalement amenés à la lumière de la vérité réelle et de la science.

Dans cette lumière, nous pouvons maintenant décider quels faits peuvent être acceptés et lesquels ne seront jamais possibles. Si, il y a environ cent ans, nous avons commencé à utiliser la radio, certains pensent qu’elle restera à jamais le meilleur moyen de communication.

Si Einstein a postulé il y a cent ans que la vitesse de la lumière est une limite, aucune autre loi physique ne sera découverte jusqu’à la fin des temps pour éviter cette limite, etc.

Comme exemple particulier, nous avons la préconception SETI. Selon elle, même si les signaux radio mettent des milliers d’années à passer d’un monde habité à l’autre, les civilisations cosmiques considéreront que la signalisation par ondes radio sera, pour toujours, le moyen de contact le plus approprié et que nous devons dépenser de l’argent pour les rechercher.

L’idée préconçue de l’invasion. Pour beaucoup de gens, il devrait être normal que si une civilisation cosmique arrive sur Terre, elle tente de nous conquérir par la force. Mais les hypercivilisations savaient probablement, il y a des millions d’années, que nous étions là ; elles pouvaient donc nous envahir à tout moment et, dans un certain sens, elles nous envahissent probablement déjà, depuis des millions d’années. Certains "artefacts déplacés" pourraient en être un indice.

L’idée préconçue d’une intervention et d’une aide. Certains espèrent que les extraterrestres nous aideront (ou du moins certains "élus") à surmonter les catastrophes futures. Mais même nous, si nous découvrons un terrain de valeur, qui a échappé à l’intrusion humaine, nous essayons de le déclarer réserve, ne permettant qu’une intervention très limitée, pour des raisons scientifiques. Cette attitude semble se renforcer avec le temps.

Une hypercivilisation observant la Terre et la civilisation technologique humaine devrait agir de manière similaire, en évitant d’interférer dans notre évolution, mais en prélevant des échantillons, en faisant quelques expériences, en ayant des contacts très limités (pas du tout officiellement ou entre égaux) avec seulement quelques individus, sélectionnés selon leurs critères et non les nôtres.

Par conséquent, aucune installation, aucune destruction, d’une part, et aucun contact officiel, aucune conversation ou aide substantielle, d’autre part, ne sont à attendre des civilisations cosmiques hautement avancées, même si elles sont ici maintenant.

La différence entre une hypercivilisation et nous pourrait être aussi grande que celle entre nous et les fourmis. Les entomologistes qui se proposeraient d’étudier la vie d’une fourmilière essaieraient de perturber, le moins possible, sa vie. Ils pourront bien sûr faire des expériences, en examinant ou en modifiant certaines fourmis, voire en les emmenant dans des laboratoires éloignés, en essayant de créer de nouvelles "races", etc.

Ils essaieront certainement de découvrir, autant que possible, la vie de la fourmilière, mais ne présenteront pas de "références" à la reine des fourmis.

Si les entomologistes disposent de la technologie nécessaire, ils créeront quelques fourmis robots, les enverront dans la fourmilière et observeront depuis un endroit sûr, par exemple "sur l’écran de l’ordinateur", les données qu’elles transmettent. Et si une fourmi robot se perdait dans cette mission, l’incident alourdirait un peu les coûts de la recherche, sans être une tragédie.

Nous pouvons spéculer qu’une hypercivilisation pourrait tenter de réaliser, en utilisant du matériel génétique provenant de la Terre, de nouvelles races, avec un cerveau plus grand, une intelligence supérieure, adaptées à certaines tâches spéciales, etc. Par conséquent, de nombreuses "races" décrites par les prétendus abductés (les gris, les grands blonds, etc.) peuvent être de telles races humaines artificielles ou même des bio-robots dérivés de l’espèce humaine.

Ils peuvent être "produits" par exemple dans des réserves ou des bases situées quelque part en dehors de la Terre. De la même manière, nous créons de nouvelles variétés de blé à partir des variétés traditionnelles. Parfois, la variété de blé parfaite devient stérile ou exposée à de nouvelles maladies.

À ce moment-là, les agronomes tentent de trouver des gènes appropriés dans le pool représenté par les espèces primitives de blé, afin d’améliorer la variété "parfaite".

Et si les humains sur Terre étaient le "réservoir sauvage" de gènes, aptes à améliorer des races artificielles ailleurs ? Dans ce cas, il n’y aura pas de problème de compatibilité entre les visiteurs et nous, comme dans certaines histoires d’enlèvement et d’hybridation par des ovnis, mais aussi, par exemple, dans la note biblique : "En ces jours-là, les êtres divins et les filles humaines avaient des relations sexuelles et donnaient naissance à des enfants".

"Ce sont les anciens héros" (Genèse, 6, 4). Certains supposent même qu’il existe une intervention extérieure permanente dans l’évolution de la race humaine afin de l’améliorer.

Mais il est évident que la comparaison ci-dessus – de l’humanité avec une fourmilière – est légèrement forcée, car l’humanité est, néanmoins, une future hypercivilisation potentielle. L’apparition d’une civilisation technologique pourrait être un événement très rare dans notre Galaxie, ne se produisant probablement qu’une fois en plusieurs millions d’années. Il est donc normal que nous intéressions les intelligences supérieures. Mais que peuvent-elles attendre de nous ?

Une hypercivilisation se comportera de manière insaisissable et ne nous donnera pas ses connaissances et ses technologies ; plus encore, elle nous l’interdira. Ce n’est pas seulement à cause de l’agressivité et de la xénophobie humaines, qui font de toute nouvelle technologie de nouvelles armes, ni seulement pour éviter un "choc culturel", qui pourrait virtuellement détruire toutes nos structures sociales, économiques, politiques, militaires, scientifiques, religieuses et culturelles.

Je peux spéculer qu’ils ont aussi d’autres raisons pour cela. Les hypercivilisations pourraient attendre (et peut-être même récolter maintenant) nos idées originales, nos points de vue, nos créations (dans l’art, la science, la philosophie, l’éthique, etc.), qui sont le résultat de millions d’années de notre évolution indépendante. Et toute cette récolte attendue pourrait être détruite par un contact prématuré.

Certaines histoires anciennes, apparemment absurdes, peuvent être une indication d’une telle attitude : la punition pour la pomme de l’arbre interdit de la connaissance, l’enchaînement de Prométhée, ou les anges déchus (du livre d’Enoch), jetés dans une fosse pleine de feu, parce qu’ils ont enseigné aux terriens certaines compétences.

De nombreuses personnes enlevées ou contactées ont parlé des boules de lumière éthérées comme de "dépôts de connaissance et d’intelligence", enregistrant "tout dans l’Univers", entre autres, la vie de tous les individus (ou des plus intéressants). Nous avons quelques indices à ce sujet lorsque nous parlons du "livre de la vie", des "archives akashiques", de l' "inconscient collectif", ou même du "champ morphogénétique", etc.

Cette "super-mémoire" pourrait être écrite sur un support "spirituel", ou sur quelque chose autour de nous que nous ne sommes pas encore capables d’imaginer. Parfois, certaines personnes, sous certaines conditions, pourraient avoir accès à cet entrepôt de données.

C’est ainsi que l’on peut expliquer : le channelling, la "xénoglossie", les "walk-ins", la "réincarnation", les fantômes, etc. Dans une telle réalité virtuelle, le temps est différent. Nous pouvons voyager dans le passé, vivre des événements, sans changer le passé réel, ou nous pouvons voir des scénarios du futur (parfois apocalyptiques), sans accepter la fatalité.

Bien sûr, tout ce qui précède n’est pas une preuve que les hypercivilisations sont l’explication de tout ce qui est étrange et notamment des ovnis. Ce n’est qu’une hypothèse, mais – je pense – une hypothèse qui ne peut être facilement écartée.

 

Auteur: Farcaş Daniel D.

Info: Hypercivilisations and the primitive extraterrestrial hypothesis, openminds 19 july 2017

[ spéculations ] [ xénocommunication ]

 

Commentaires: 0

Ajouté à la BD par miguel

microbiote

Un chef d'orchestre de la subtile symphonie d'Evolution

Le biologiste Richard Lenski pensait que son expérience à long terme sur l'évolution pourrait durer 2 000 générations. Près de trois décennies et plus de 65 000 générations plus tard, il est toujours étonné par " l’incroyable inventivité " de l’évolution.

Au début de sa carrière, le biologiste décoré Richard Lenski pensait qu'il pourrait être contraint d'évoluer. Après l’annulation de sa subvention de recherche postdoctorale, Lenski a commencé à envisager provisoirement d’autres options. Avec un enfant et un deuxième en route, Lenski a assisté à un séminaire sur l'utilisation de types spécifiques de données dans un contexte actuariel* – le même type de données avec lequel il avait travaillé lorsqu'il était étudiant diplômé. Lenski a récupéré la carte de visite du conférencier, pensant qu'il pourrait peut-être mettre à profit son expérience dans une nouvelle carrière.

"Mais ensuite, comme c'est parfois le cas - et j'ai eu beaucoup de chance - le vent a tourné", a déclaré Lenski à Quanta Magazine dans son bureau de la Michigan State University. " Nous avons obtenu le renouvellement de la subvention et peu de temps après, j'ai commencé à recevoir des offres pour être professeur. 

Lenski, professeur d'écologie microbienne à l'État du Michigan, est surtout connu pour ses travaux sur ce que l'on appelle l' expérience d'évolution à long terme . Le projet, lancé en 1988, examine l'évolution en action. Lui et les membres de son laboratoire ont cultivé 12 populations d' E. coli en continu depuis plus de 65 000 générations, suivant le développement et les mutations des 12 souches distinctes.

Les résultats ont attiré l’attention et les éloges – y compris une bourse " genius " MacArthur, que Lenski a reçue en 1996 – à la fois pour l’énormité de l’entreprise et pour les découvertes intrigantes que l’étude a produites. Plus particulièrement, en 2003, Lenski et ses collaborateurs ont réalisé qu'une souche d' E. coli avait développé la capacité d'utiliser le citrate comme source d'énergie, ce qu'aucune population précédente d' E. coli n'était capable de faire.

Lenski s'intéresse également aux organismes numériques, c'est-à-dire aux programmes informatiques conçus pour imiter le processus d'évolution. Il a joué un rôle déterminant dans l’ouverture du Beacon Center dans l’État du Michigan, qui donne aux informaticiens et aux biologistes évolutionnistes l’opportunité de forger des collaborations uniques.

Quanta Magazine a rencontré Lenski dans son bureau pour parler de ses propres intérêts évolutifs dans le domaine de la biologie évolutive – et du moment où il a presque mis fin à l'expérience à long terme. 

QUANTA MAGAZINE : Quels types de questions ont été les moteurs de votre carrière ?

RICHARD LENSKI : Une question qui m'a toujours intrigué concerne la reproductibilité ou la répétabilité de l'évolution . Stephen Jay Gould, paléontologue et historien des sciences, a posé cette question : si nous pouvions rembobiner la bande de la vie sur Terre, à quel point serait-elle similaire ou différente si nous regardions l'ensemble du processus se reproduire ? L’expérimentation à long terme que nous menons nous a permis de rassembler de nombreuses données sur cette question.

Alors, l’évolution est-elle reproductible ?

Oui et non! Je dis parfois aux gens que c'est une question fascinante et motivante, mais à un certain niveau, c'est une question terrible, et on ne dirait jamais à un étudiant diplômé de s'y poser. C’est parce qu’elle est très ouverte et qu’il n’y a pas de réponse très claire.

Grâce à cette expérience à long terme, nous avons vu de très beaux exemples de choses remarquablement reproductibles, et d'autre part des choses folles où une population s'en va et fait des choses qui sont complètement différentes des 11 autres populations de la planète dans l' expérience.

Comment vous est venue l’idée de cette expérience à long terme ?

Je travaillais déjà depuis plusieurs années sur l'évolution expérimentale des bactéries, ainsi que des virus qui infectent les bactéries. C'était fascinant, mais tout est devenu si compliqué si vite que j'ai dit : " Réduisons l'évolution à sa plus simple expression. " En particulier, j'ai voulu approfondir cette question de reproductibilité ou répétabilité de l'évolution. Et pour pouvoir l'examiner, je voulais un système très simple. Lorsque j'ai commencé l'expérience à long terme, mon objectif initial était de l'appeler expérience à long terme lorsque j'arriverais à 2 000 générations.

Combien de temps cela vous a-t-il pris ?

La durée réelle de l'expérience a duré environ 10 ou 11 mois, mais au moment où nous avons collecté les données, les avons rédigées et publié l'article, il nous a fallu environ deux ans et demi. À ce moment-là, l’expérience avait déjà dépassé 5 000 générations et j’ai réalisé qu'il fallait la poursuivre.

Pensiez-vous que l’expérience se poursuivrait aussi longtemps ?

Non, non... il y a eu une période de cinq ans, peut-être de la fin des années 90 au début des années 2000, pendant laquelle j'ai réfléchi à la possibilité d'arrêter l'expérience. C'était pour plusieurs raisons différentes. La première était que je devenais accro à cette autre façon d’étudier l’évolution, qui impliquait d’observer l’évolution dans des programmes informatiques auto-réplicatifs, ce qui était absolument fascinant. Soudain, j'ai découvert cette manière encore plus brillante d'étudier l'évolution, où elle pouvait s'étendre sur encore plus de générations et faire encore plus d'expériences, apparemment plus soignées.

Comment votre vision de l’étude de l’évolution via ces organismes numériques a-t-elle évolué au fil du temps ?

J’ai eu ce genre d’" amour de chiot " lorsque j’en ai entendu parler pour la première fois. Au début, c'était tellement extraordinairement intéressant et excitant de pouvoir regarder des programmes auto-répliquants, de pouvoir changer leur environnement et d'observer l'évolution se produire.

L’un des aspects les plus passionnants de l’évolution numérique est qu’elle montre que nous considérons l’évolution comme une affaire de sang, d’intestins, d’ADN, d’ARN et de protéines. Mais l’idée d’évolution se résume en réalité à des idées très fondamentales d’hérédité, de réplication et de compétition. Le philosophe des sciences Daniel Dennett a souligné que nous considérons l’évolution comme cette instanciation, cette forme de vie biologique, mais que ses principes sont bien plus généraux que cela.

Je dirais que mes dernières orientations de recherche ont consisté principalement à discuter avec des collègues très intelligents et à siéger à des comités d'étudiants diplômés qui utilisent ces systèmes. Je suis moins impliqué dans la conception d'expériences ou dans la formulation d'hypothèses spécifiques, car ce domaine évolue extrêmement rapidement. Je pense que j'ai eu beaucoup de chance de pouvoir cueillir certains des fruits les plus faciles à trouver, mais maintenant j'ai l'impression d'être là en tant que biologiste, critiquant peut-être des hypothèses, suggérant des contrôles qui pourraient être effectués dans certaines expériences.

Votre intérêt pour les organismes numériques est donc l’une des raisons pour lesquelles vous avez envisagé de mettre fin à l’expérience à long terme. Quel était l'autre ?

À ce stade, l’autre chose qui était un peu frustrante dans les lignes à long terme était que la vitesse à laquelle les bactéries évoluaient ralentissait. À la façon dont j’y pensais, c’était presque comme si l’évolution s’était arrêtée. Je pensais que c'était tout simplement un environnement trop simple et qu'ils n'avaient pas grand-chose à faire de plus.

Donc ces deux choses différentes m’ont fait réfléchir à arrêter l’expérience. Et j'ai parlé à quelques collègues et ils m'ont dit en gros : tu ne devrais pas faire ça. D’ailleurs, j’en ai parlé avec ma femme, Madeleine, lorsque je commençais à m’intéresser beaucoup à ces organismes numériques – nous étions d’ailleurs en congé sabbatique en France à cette époque – et je lui ai dit : " Peut-être que je devrais appeler chez moi et fermer le labo. " Et elle a dit : " Je ne pense pas que tu devrais faire ça. "

Pourquoi votre femme et vos collègues ont-ils eu cette réaction ?

L’expérience s’était déjà avérée très rentable au sens scientifique, fournissant des données très riches sur la dynamique du changement évolutif. C’était plus ou moins unique dans les échelles de temps étudiées. Je pense donc que c’était de très bons conseils qu’ils m’ont donné. Je ne sais pas si j’aurais déjà pu débrancher moi-même. J'étais certainement un peu frustré et j'y pensais – mais de toute façon, les gens ont dit non !

Avez-vous dépassé le palier où vous disiez avoir l’impression que les organismes n’évoluaient pas tellement ?

C’est en fait l’une des découvertes vraiment intéressantes de l’expérience. Lorsque j’ai commencé l’expérience à long terme, je pensais que les bactéries atteindraient rapidement une sorte de limite à leur croissance. Il y a seulement quelques années, nous avons commencé à réaliser que les bactéries seraient toujours capables de dépasser tout ce que nous avions déduit dans le passé quant à leur limite stricte. J’ai réalisé que nous n’y réfléchissions tout simplement pas de la bonne manière. Même dans l’environnement le plus simple, il est toujours possible pour les organismes de réaliser n’importe quelle étape de leur métabolisme, ou n’importe quelle étape de leur biochimie, un peu mieux. Et la sélection naturelle, même si elle ne réussit pas à chaque étape, favorisera toujours, à long terme, ces améliorations subtiles.

Une lignée de bactéries a développé la capacité d’utiliser le citrate comme source de nourriture. Est-ce que cela s'est produit avant ou après que vous envisagiez d'arrêter l'expérience ?

C’est l’une des choses qui m’a fait réaliser que nous n’arrêterions pas l’expérience. En 2003, une lignée a développé la capacité d’utiliser le citrate. Cela a changé la donne : se rendre compte que même dans cet environnement extrêmement simple, les bactéries devaient évoluer et comprendre certaines choses importantes.

J’aime dire que les bactéries dînaient tous les soirs sans se rendre compte qu’il y avait ce bon dessert citronné juste au coin de la rue. Et jusqu’à présent, même après 65 000 générations, seule une population sur 12 a compris comment consommer ce citrate.

Vous avez également mentionné que certaines populations au sein de votre expérience ont développé des mutations à un rythme plus élevé. A quoi cela ressemble-t-il?

Après plus de 60 000 générations, six des 12 populations ont évolué pour devenir hypermutables. Elles ont développé des changements dans la réparation de leur ADN et dans les processus métaboliques de l'ADN, ce qui les amène à avoir de nouvelles mutations quelque part de l'ordre de 100 fois la vitesse à laquelle l'ancêtre [au début de l'expérience] le faisait.

C'est un processus très intéressant, car il est à la fois bon et mauvais du point de vue des bactéries. C'est mauvais car la plupart des mutations sont nocives ou, au mieux, neutres. Seule une rare pépite dans cette mine est une mutation bénéfique. Les bactéries qui ont le taux de mutation le plus élevé sont un peu plus susceptibles de découvrir l’une de ces pépites. Mais d’un autre côté, ils sont également plus susceptibles de produire des enfants et petits-enfants porteurs de mutations délétères.

La lignée capable de consommer du citrate faisait-elle partie du groupe qui avait évolué pour devenir hypermutable ?

C'est une excellente question. La lignée qui a développé la capacité d’utiliser le citrate n’avait pas un taux de mutation élevé. Il est intéressant de noter qu’il est devenu l’un de ceux présentant un taux de mutation plus élevé, mais seulement après avoir développé la capacité d’utiliser le citrate. Cela est cohérent avec l’avantage du taux de mutation plus élevé – la capacité supplémentaire d’exploration. Les bactéries étaient en fait assez mauvaises pour utiliser le citrate au départ, donc il y avait beaucoup d'opportunités après qu'elles aient développé la capacité d'utiliser le citrate pour affiner cette capacité.

Comment l’expérience à long terme vous aide-t-elle à comprendre l’évolution de la vie à plus grande échelle ?

Pour moi, l’une des leçons de cette expérience à long terme a été de constater à quel point la vie peut être riche et intéressante, même dans l’environnement le plus ennuyeux et le plus simple. Le fait que l’évolution puisse générer cette diversité et découvrir des portes légèrement entrouvertes qu’elle peut franchir témoigne de l’incroyable inventivité de l’évolution. Et s’il peut être si inventif et créatif à cette minuscule échelle spatiale et temporelle, et dans un environnement aussi ennuyeux, cela me suscite encore plus de respect, quand je pense à quel point il est remarquable dans la nature.

Qu’est-ce qui vous a le plus surpris dans ce projet ?

Que ça continue après toutes ces années. L’un de mes objectifs dans la vie est de faire en sorte que l’expérience continue. J'aimerais lever une dotation pour poursuivre l'expérience à perpétuité.

Qu’espérez-vous pour l’expérience à long terme dans le futur ?

J’espère que ce projet apportera bien d’autres surprises. Par exemple, deux lignées coexistent depuis 60 000 générations dans l’une des populations, où l’une se nourrit du produit que l’autre génère. Je pense qu'il est fascinant de se demander si, à un moment donné, cela pourrait se transformer en quelque chose qui ressemble davantage à une interaction prédateur-proie. Ce n’est certainement pas hors du domaine des possibles. Si cela arriverait un jour, je ne sais pas.

Cela a également été une immense joie de travailler avec des étudiants, des postdoctorants et des collaborateurs, et de les voir grandir et se développer. C'est vraiment la plus grande joie pour moi d'être un scientifique. J'aime dire aux gens que je suis bigame. J'ai deux familles : ma famille de laboratoire et ma famille biologique, et elles sont toutes les deux incroyablement merveilleuses.

Auteur: Internet

Info: Logan Zillmer pour Quanta Magazine - * Relatif aux méthodes mathématiques des actuaires

[ microbiome ] [ bio-informatique ] [ plasticité ] [ dépassement ] [ tâtonnement ] [ élargissement ] [ gaspillage ] [ adaptation ]

 

Commentaires: 0

Ajouté à la BD par miguel

multi-milliardaires

DE LA SURVIE DES PLUS RICHES
Quand des patrons de fonds d'investissement new-yorkais font appel à un spécialiste de la société de l'information, afin d'améliorer leurs chances de survie après l'Évènement qui détruira le monde tel que nous le connaissons.

AVERTISSEMENT, CECI N'EST PAS UNE FICTION
L’année dernière, j’ai été invité à donner une conférence dans un complexe hôtelier d’hyper-luxe face à ce que je pensais être un groupe d’une centaine de banquiers spécialisés dans l’investissement. On ne m’avait jamais proposé une somme aussi importante pour une intervention - presque la moitié de mon salaire annuel de professeur - et délivrer mes visions sur "l’avenir de la technologie".

Je n’ai jamais aimé parler du futur. Ce genre de séance d’échange se termine fatalement par un interrogatoire, à l’occasion duquel on me demande de me prononcer sur les dernières "tendances" technologiques, comme s’il s’agissait d’indicateurs boursiers pour les investisseurs : blockchain, impression 3D, CRISPR. L’audience s’y préoccupe généralement moins des technologies en elles-mêmes et de leurs implications, que de savoir si elles méritent ou non que l’on parie sur elles, en mode binaire. Mais l’argent ayant le dernier mot, j’ai accepté le boulot.

À mon arrivée, on m’a accompagné dans ce que j’ai cru n’être qu’une vulgaire salle technique. Mais alors que je m’attendais à ce que l’on me branche un microphone ou à ce que l’on m’amène sur scène, on m’a simplement invité à m’asseoir à une grande table de réunion, pendant que mon public faisait son entrée : cinq gars ultra-riches - oui, uniquement des hommes - tous issus des plus hautes sphères de la finance internationale. Dès nos premiers échanges, j’ai réalisé qu’ils n’étaient pas là pour le topo que je leur avais préparé sur le futur de la technologie. Ils étaient venus avec leurs propres questions.

Ça a d’abord commencé de manière anodine. Ethereum ou Bitcoin ? L’informatique quantique est-elle une réalité ? Lentement mais sûrement, ils m’ont amené vers le véritable sujet de leurs préoccupations.

Quelle sera la région du monde la plus épargnée par la prochaine crise climatique : la nouvelle Zélande ou l’Alaska ? Est-ce que Google construit réellement un nouveau foyer pour le cerveau de Ray Kurzweil ? Est-ce que sa conscience survivra à cette transition ou bien mourra-t-elle pour renaître ensuite ? Enfin, le PDG d’une société de courtage s’est inquiété, après avoir mentionné le bunker sous-terrain dont il achevait la construction : "Comment puis-je conserver le contrôle de mes forces de sécurité, après l’Événement ?"

L’Évènement. Un euphémisme qu’ils employaient pour évoquer l’effondrement environnemental, les troubles sociaux, l’explosion nucléaire, le nouveau virus impossible à endiguer ou encore l’attaque informatique d’un Mr Robot qui ferait à lui seul planter tout le système.

Cette question allait nous occuper durant toute l’heure restante. Ils avaient conscience que des gardes armés seraient nécessaires pour protéger leurs murs des foules en colère. Mais comment payer ces gardes, le jour où l’argent n’aurait plus de valeur ? Et comment les empêcher de se choisir un nouveau leader ? Ces milliardaires envisageaient d’enfermer leurs stocks de nourriture derrière des portes blindées aux serrures cryptées, dont eux seuls détiendraient les codes. D’équiper chaque garde d’un collier disciplinaire, comme garantie de leur survie. Ou encore, si la technologie le permettait à temps, de construire des robots qui serviraient à la fois de gardes et de force de travail.

C’est là que ça m’a frappé. Pour ces messieurs, notre discussion portait bien sur le futur de la technologie. Inspirés par le projet de colonisation de la planète Mars d’Elon Musk, les tentatives d’inversion du processus du vieillissement de Peter Thiel, ou encore les expériences de Sam Altman et Ray de Kurzweil qui ambitionnent de télécharger leurs esprits dans de super-ordinateurs, ils se préparaient à un avenir numérique qui avait moins à voir avec l’idée de construire un monde meilleur que de transcender la condition humaine et de se préserver de dangers aussi réels qu’immédiats, comme le changement climatique, la montée des océans, les migrations de masse, les pandémies planétaires, les paniques identitaires et l’épuisement des ressources. Pour eux, le futur de la technologie se résumait à une seule finalité : fuir.

Il n’y a rien de mal aux visions les plus follement optimistes sur la manière dont la technologie pourrait bénéficier à l’ensemble de la société humaine. Mais l’actuel engouement pour les utopies post-humaines est d’un tout autre ordre. Il s’agit moins d’une vision de la migration de l’ensemble de notre espèce vers une nouvelle condition humaine, que d’une quête pour transcender tout ce qui nous constitue : nos corps, notre interdépendance, la compassion, la vulnérabilité et la complexité. Comme l’indiquent maintenant depuis plusieurs années les philosophes de la technologie, le prisme transhumaniste réduit trop facilement la réalité à un conglomérat de données, en concluant que "les humains ne sont rien d’autre que des centres de traitement de l’information".

L’évolution humaine s’apparente alors à une sorte de jeu vidéo labyrinthique, dont les heureux gagnants balisent le chemin de la sortie pour leurs partenaires les plus privilégiés. S’agit-il de Musk, Bezos, Thiel… Zuckerberg ? Ces quelques milliardaires sont les gagnants présupposés d’une économie numérique régie par une loi de la jungle qui sévit dans le monde des affaires et de la spéculation dont ils sont eux-mêmes issus.

Bien sûr, il n’en n’a pas toujours été ainsi. Il y a eu une période courte, au début des années 1990, où l’avenir numérique apparaissait fertile, enthousiasmant, ouvert à la création. La technologie y devenait le terrain de jeu de la contre-culture, qui vit là l’opportunité de créer un futur plus inclusif, mieux réparti et pro-humain. Mais les intérêts commerciaux n’y ont vu pour leur part que de nouveaux potentiels pour leurs vieux réflexes. Et trop de technologues se sont laissés séduire par des IPO (introduction en bourse) chimériques. Les futurs numériques s’en retrouvèrent envisagés sous le même prisme que le cours de la bourse ou du coton, dans ce même jeu dangereux de paris et de prédictions. Ainsi, la moindre étude documentaire, le moindre article ou livre blanc publié sur ce thème n’étaient plus interprété que comme un nouvel indice boursier. Le futur s’est transformé en une sorte de scénario prédestiné, sur lequel on parie à grands renforts de capital-risque, mais qu’on laisse se produire de manière passive, plus que comme quelque chose que l’on crée au travers de nos choix présents et de nos espoirs pour l’espèce humaine.

Ce qui a libéré chacun d’entre nous des implications morales de son activité. Le développement technologique est devenu moins une affaire d’épanouissement collectif que de survie individuelle. Pire, comme j’ai pu l’apprendre à mes dépens, le simple fait de pointer cette dérive suffisait à vous désigner d’emblée comme un ennemi rétrograde du marché, un ringard technophobe.

Et plutôt que de questionner la dimension éthique de pratiques qui exploitent et appauvrissent les masses au profit d’une minorité, la majorité des universitaires, des journalistes et des écrivains de science fiction ont préféré se focaliser sur des implications plus abstraites et périphériques : "Est-il juste qu’un trader utilise des drogues nootropiques ? Doit-on greffer des implants aux enfants pour leur permettre de parler des langues étrangères? Les véhicules intelligents doivent-ils privilégier la sécurité des piétons ou celle de leurs usagers? Est-ce que les premières colonies martiennes se doivent d’adopter un modèle démocratique? Modifier son ADN, est-ce modifier son identité ? Est-ce que les robots doivent avoir des droits ?".

Sans nier le côté divertissant de ces questions sur un plan philosophique, force est d’admettre qu’elles ne pèsent pas lourd face aux vrais enjeux moraux posés par le développement technologique débridé, au nom du capitalisme pratiqué par les multinationales. Les plateformes numériques ont modifié un marché déjà fondé sur l’exploitation (Walmart) pour donner naissance à un successeur encore plus déshumanisant (Amazon). La plupart d’entre-nous sommes conscients de ces dérives, rendues visibles par la recrudescence des emplois automatisés, par l’explosion de l’économie à la tâche et la disparition du commerce local de détails.

Mais c’est encore vis-à-vis de l’environnement et des populations les plus pauvres que ce capitalisme numérique désinhibé produit ses effets les plus dévastateurs. La fabrication de certains de nos ordinateurs et de nos smartphones reste assujettie au travail forcé et à l’esclavage. Une dépendance si consubstantielle que Fairphone, l’entreprise qui ambitionnait de fabriquer et de commercialiser des téléphones éthiques, s’est vue obligée de reconnaître que c’était en réalité impossible. Son fondateur se réfère aujourd’hui tristement à ses produits comme étant "plus" éthiques.

Pendant ce temps, l’extraction de métaux et de terres rares, conjuguée au stockage de nos déchets technologiques, ravage des habitats humains transformés en véritables décharges toxiques, dans lesquels es enfants et des familles de paysans viennent glaner de maigres restes utilisables, dans l’espoir de les revendre plus tard aux fabricants.

Nous aurons beau nous réfugier dans une réalité alternative, en cachant nos regards derrière des lunettes de réalité virtuelle, cette sous-traitance de la misère et de la toxicité n’en disparaîtra pas pour autant. De fait, plus nous en ignorerons les répercussions sociales, économiques et environnementales, plus elles s’aggraveront. En motivant toujours plus de déresponsabilisation, d’isolement et de fantasmes apocalyptiques, dont on cherchera à se prémunir avec toujours plus de technologies et de business plans. Le cycle se nourrit de lui-même.

Plus nous adhérerons à cette vision du monde, plus les humains apparaitront comme la source du problème et la technologie comme la solution. L’essence même de ce qui caractérise l’humain est moins traité comme une fonctionnalité que comme une perturbation. Quels que furent les biais idéologiques qui ont mené à leur émergence, les technologies bénéficient d’une aura de neutralité. Et si elles induisent parfois des dérives comportementales, celles-ci ne seraient que le reflet de nos natures corrompues. Comme si nos difficultés ne résultaient que de notre sauvagerie constitutive. À l’instar de l’inefficacité d’un système de taxis locaux pouvant être "résolue" par une application qui ruine les chauffeurs humains, les inconsistances contrariantes de notre psyché pouvait être corrigée par une mise à jour digitale ou génétique.

Selon l’orthodoxie techno-solutionniste, le point culminant de l’évolution humaine consisterait enfin à transférer notre conscience dans un ordinateur, ou encore mieux, à accepter la technologie comme notre successeur dans l’évolution des espèces. Comme les adeptes d’un culte gnostique, nous souhaitons atteindre la prochaine phase transcendante de notre évolution, en nous délestant de nos corps et en les abandonnant, avec nos péchés et nos problèmes.

Nos films et nos productions télévisuelles continuent d’alimenter ces fantasmes. Les séries sur les zombies dépeignent ainsi une post-apocalypse où les gens ne valent pas mieux que les morts vivants - et semblent en être conscients. Pire, ces projections fictives invitent les spectateurs à envisager l’avenir comme une bataille à somme nulle entre les survivants, où la survie d’un groupe dépend mécaniquement de la disparition d’un autre. Jusqu’à la série Westworld, basée sur un roman de science-fiction dans lequel les robots deviennent fous et qui clôt sa seconde saison sur une ultime révélation : les êtres humains sont plus simples et plus prévisibles que les intelligences artificielles qu’ils ont créées. Les robots y apprennent que nous nous réduisons, tous autant que nous sommes, à quelques lignes de code et que notre libre arbitre n’est qu’une illusion. Zut ! Dans cette série, les robots eux-mêmes veulent échapper aux limites de leurs corps et passer le reste de leurs vies dans une simulation informatique.

Seul un profond dégoût pour l’humanité autorise une telle gymnastique mentale, en inversant ainsi les rôles de l’homme et de la machine. Modifions-les ou fuyons-les, pour toujours.

Ainsi, nous nous retrouvons face à des techno-milliardaires qui expédient leurs voiture électriques dans l’espace, comme si ça symbolisait autre chose que la capacité d’un milliardaire à assurer la promotion de sa propre compagnie. Et quand bien même quelques élus parviendraient à rallier la planète Mars pour y subsister dans une sorte de bulle artificielle - malgré notre incapacité à maintenir des telles bulles sur Terre, malgré les milliards de dollars engloutis dans les projets Biosphère - le résultat s’apparenterait plus à une espèce de chaloupe luxueuse réservée une élite qu’à la perpétuation de la diaspora humaine.

Quand ces responsables de fonds d’investissement m’ont interrogé sur la meilleure manière de maintenir leur autorité sur leurs forces de sécurité "après l’Évènement", je leur ai suggéré de traiter leurs employés du mieux possible, dès maintenant. De se comporter avec eux comme s’il s’agissait des membres de leur propre famille. Et que plus ils insuffleraient cette éthique inclusive à leur pratiques commerciales, à la gestion de leurs chaînes d’approvisionnement, au développement durable et à la répartition des richesses, moins il y aurait de chances que "l’Événement" se produise. Qu’ils auraient tout intérêt à employer cette magie technologique au service d’enjeux, certes moins romantiques, mais plus collectifs, dès aujourd’hui.

Mon optimisme les a fait sourire, mais pas au point de les convaincre. Éviter la catastrophe ne les intéressait finalement pas, persuadés qu’ils sont que nous sommes déjà trop engagés dans cette direction. Malgré le pouvoir que leur confèrent leurs immenses fortunes, ils ne veulent pas croire en leur propre capacité d’infléchir sur le cours des événements. Ils achètent les scénarios les plus sombres et misent sur leur argent et la technologie pour s’en prémunir - surtout s’ils peuvent disposer d’un siège dans la prochaine fusée pour Mars.

Heureusement, ceux d’entre nous qui n’ont pas de quoi financer le reniement de leur propre humanité disposent de meilleures options. Rien nous force à utiliser la technologie de manière aussi antisociale et destructive. Nous pouvons nous transformer en individus consommateurs, aux profils formatés par notre arsenal de plateformes et d’appareils connectés, ou nous pouvons nous souvenir qu’un être humain véritablement évolué ne fonctionne pas seul.

Être humain ne se définit pas dans notre capacité à fuir ou à survivre individuellement. C’est un sport d’équipe. Quel que soit notre futur, il se produira ensemble.

Auteur: Rushkoff Douglas

Info: Quand les riches conspirent pour nous laisser derrière. Avec l’accord de l’auteur, traduction de Céleste Bruandet, avec la participation de Laurent Courau

[ prospective ] [ super-riches ] [ oligarques ]

 

Commentaires: 0

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel

univers protonique

À l’intérieur du Proton, " la chose la plus complexe qu'on puisse imaginer "

La particule chargée positivement au cœur de l’atome est un objet d’une complexité indescriptible, qui change d’apparence en fonction de la manière dont elle est sondée. Nous avons tenté de relier les nombreuses faces du proton pour former l'image la plus complète à ce jour.

(image : Des chercheurs ont récemment découvert que le proton comprend parfois un quark charmé et un antiquark charmé, particules colossales puisqeu chacune est plus lourde que le proton lui-même.)

Plus d’un siècle après qu’Ernest Rutherford ait découvert la particule chargée positivement au cœur de chaque atome, les physiciens ont encore du mal à comprendre pleinement le proton.

Les professeurs de physique des lycées les décrivent comme des boules sans relief contenant chacune une unité de charge électrique positive – des feuilles parfaites pour les électrons chargés négativement qui bourdonnent autour d’elles. Les étudiants apprennent que la boule est en réalité un ensemble de trois particules élémentaires appelées quarks. Mais des décennies de recherche ont révélé une vérité plus profonde, trop bizarre pour être pleinement saisie avec des mots ou des images.

"C'est la chose la plus compliquée que l'on puisse imaginer", a déclaré Mike Williams, physicien au Massachusetts Institute of Technology. "En fait, on ne peut même pas imaginer à quel point c'est compliqué."

Le proton est un objet de mécanique quantique qui existe sous la forme d’un brouillard de probabilités jusqu’à ce qu’une expérience l’oblige à prendre une forme concrète. Et ses formes diffèrent radicalement selon la manière dont les chercheurs mettent en place leur expérience. Relier les nombreux visages de la particule a été l’œuvre de plusieurs générations. "Nous commençons tout juste à comprendre ce système de manière complète", a déclaré Richard Milner , physicien nucléaire au MIT.

Alors que la poursuite se poursuit, les secrets du proton ne cessent de se dévoiler. Plus récemment, une analyse monumentale de données publiée en août a révélé que le proton contient des traces de particules appelées quarks charmés, plus lourdes que le proton lui-même.

Le proton " a été une leçon d’humilité pour les humains ", a déclaré Williams. " Chaque fois qu'on pense pouvoir maîtriser le sujet, il nous envoie des balles à trajectoires courbées (en référence aux Pitchers du baseball)

Récemment, Milner, en collaboration avec Rolf Ent du Jefferson Lab, les cinéastes du MIT Chris Boebel et Joe McMaster et l'animateur James LaPlante, ont entrepris de transformer un ensemble d'intrigues obscures qui compilent les résultats de centaines d'expériences en une série d'animations de la forme -changement de proton. Nous avons intégré leurs animations dans notre propre tentative de dévoiler ses secrets.

Ouvrir le proton

La preuve que le proton contient de telles multitudes est venue du Stanford Linear Accelerator Center (SLAC) en 1967. Dans des expériences antérieures, les chercheurs l'avaient bombardé d'électrons et les avaient regardés ricocher comme des boules de billard. Mais le SLAC pouvait projeter des électrons avec plus de force, et les chercheurs ont constaté qu'ils rebondissaient différemment. Les électrons frappaient le proton assez fort pour le briser – un processus appelé diffusion inélastique profonde – et rebondissaient sur des fragments ponctuels du proton appelés quarks. "Ce fut la première preuve de l'existence réelle des quarks", a déclaré Xiaochao Zheng , physicien à l'Université de Virginie.

Après la découverte du SLAC, qui remporta le prix Nobel de physique en 1990, l'examen minutieux du proton s'est intensifié. Les physiciens ont réalisé à ce jour des centaines d’expériences de diffusion. Ils déduisent divers aspects de l'intérieur de l'objet en ajustant la force avec laquelle ils le bombardent et en choisissant les particules dispersées qu'ils collectent par la suite.

En utilisant des électrons de plus haute énergie, les physiciens peuvent découvrir des caractéristiques plus fines du proton cible. De cette manière, l’énergie électronique définit le pouvoir de résolution maximal d’une expérience de diffusion profondément inélastique. Des collisionneurs de particules plus puissants offrent une vision plus nette du proton.

Les collisionneurs à plus haute énergie produisent également un plus large éventail de résultats de collision, permettant aux chercheurs de choisir différents sous-ensembles d'électrons sortants à analyser. Cette flexibilité s'est avérée essentielle pour comprendre les quarks, qui se déplacent à l'intérieur du proton avec différentes impulsions.

En mesurant l'énergie et la trajectoire de chaque électron diffusé, les chercheurs peuvent déterminer s'il a heurté un quark transportant une grande partie de l'impulsion totale du proton ou juste une infime partie. Grâce à des collisions répétées, ils peuvent effectuer quelque chose comme un recensement, déterminant si l'impulsion du proton est principalement liée à quelques quarks ou répartie sur plusieurs.

(Illustration qui montre les apparences du proton en fonction des types de collisions)

Même les collisions de division de protons du SLAC étaient douces par rapport aux normes actuelles. Lors de ces événements de diffusion, les électrons jaillissaient souvent d'une manière suggérant qu'ils s'étaient écrasés sur des quarks transportant un tiers de l'impulsion totale du proton. Cette découverte correspond à une théorie de Murray Gell-Mann et George Zweig, qui affirmaient en 1964 qu'un proton était constitué de trois quarks.

Le " modèle des quarks " de Gell-Mann et Zweig reste une façon élégante d'imaginer le proton. Il possède deux quarks " up " avec des charges électriques de +2/3 chacun et un quark " down " avec une charge de −1/3, pour une charge totale de protons de +1.

(Image mobile : Trois quarks sont présents dans cette animation basée sur les données.)

Mais le modèle avec des quarks est une simplification excessive qui présente de sérieuses lacunes.

Qui échoue, par exemple, lorsqu'il s'agit du spin d'un proton, une propriété quantique analogue au moment cinétique. Le proton possède une demi-unité de spin, tout comme chacun de ses quarks up et down. Les physiciens ont initialement supposé que — dans un calcul faisant écho à la simple arithmétique de charge — les demi-unités des deux quarks up moins celle du quark down devaient être égales à une demi-unité pour le proton dans son ensemble. Mais en 1988, la Collaboration européenne sur les muons a rapporté que la somme des spins des quarks était bien inférieure à la moitié. De même, les masses de deux quarks up et d’un quark down ne représentent qu’environ 1 % de la masse totale du proton. Ces déficits ont fait ressortir un point que les physiciens commençaient déjà à comprendre : le proton est bien plus que trois quarks.

Beaucoup plus que trois quarks

L'accélérateur annulaire de hadrons et d'électrons (HERA), qui a fonctionné à Hambourg, en Allemagne, de 1992 à 2007, a projeté des électrons sur des protons avec une force environ mille fois supérieure à celle du SLAC. Dans les expériences HERA, les physiciens ont pu sélectionner les électrons qui avaient rebondi sur des quarks à impulsion extrêmement faible, y compris ceux transportant aussi peu que 0,005 % de l'impulsion totale du proton. Et ils les ont détectés : Les électrons d'HERA ont rebondi sur un maelström de quarks à faible dynamique et de leurs contreparties d'antimatière, les antiquarks.

(Photo image animée : De nombreux quarks et antiquarks bouillonnent dans une " mer " de particules bouillonnantes."

Les résultats ont confirmé une théorie sophistiquée et farfelue qui avait alors remplacé le modèle des quarks de Gell-Mann et Zweig. Développée dans les années 1970, il s’agissait d’une théorie quantique de la " force forte " qui agit entre les quarks. La théorie décrit les quarks comme étant liés par des particules porteuses de force appelées gluons. Chaque quark et chaque gluon possède l'un des trois types de charges "colorées ", étiquetées rouge, verte et bleue ; ces particules chargées de couleur se tirent naturellement les unes sur les autres et forment un groupe – tel qu’un proton – dont les couleurs s’additionnent pour former un blanc neutre. La théorie colorée est devenue connue sous le nom de chromodynamique quantique, ou QCD.

Selon cette QCD, les gluons peuvent capter des pics d’énergie momentanés. Avec cette énergie, un gluon se divise en un quark et un antiquark – chacun portant juste un tout petit peu d’impulsion – avant que la paire ne s’annihile et ne disparaisse. C'est cette " mer " de gluons, de quarks et d'antiquarks transitoires qu'HERA, avec sa plus grande sensibilité aux particules de faible impulsion, a détecté de première main.

HERA a également recueilli des indices sur ce à quoi ressemblerait le proton dans des collisionneurs plus puissants. Alors que les physiciens ajustaient HERA pour rechercher des quarks à faible impulsion, ces quarks – qui proviennent des gluons – sont apparus en nombre de plus en plus grand. Les résultats suggèrent que dans des collisions à énergie encore plus élevée, le proton apparaîtrait comme un nuage composé presque entièrement de gluons. (Image)

Les gluons abondent sous une forme semblable à un nuage.

Ce pissenlit de gluon est exactement ce que prédit la QCD. "Les données HERA sont une preuve expérimentale directe que la QCD décrit la nature", a déclaré Milner.

Mais la victoire de la jeune théorie s'est accompagnée d'une pilule amère : alors que la QCD décrivait magnifiquement la danse des quarks et des gluons à durée de vie courte révélée par les collisions extrêmes d'HERA, la théorie est inutile pour comprendre les trois quarks à longue durée de vie observés suite à un plus léger bombardement du SLAC.

Les prédictions de QCD ne sont faciles à comprendre que lorsque la force forte est relativement faible. Et la force forte ne s'affaiblit que lorsque les quarks sont extrêmement proches les uns des autres, comme c'est le cas dans les paires quark-antiquark de courte durée. Frank Wilczek, David Gross et David Politzer ont identifié cette caractéristique déterminante de la QCD en 1973, remportant le prix Nobel 31 ans plus tard.

Mais pour des collisions plus douces comme celle du SLAC, où le proton agit comme trois quarks qui gardent mutuellement leurs distances, ces quarks s'attirent suffisamment fortement les uns les autres pour que les calculs de QCD deviennent impossibles. Ainsi, la tâche de démystifier plus loin une vision du proton à trois quarks incombe en grande partie aux expérimentateurs. (Les chercheurs qui mènent des " expériences numériques ", dans lesquelles les prédictions QCD sont simulées sur des superordinateurs, ont également apporté des contributions clés .) Et c'est dans ce genre d' images à basse résolution que les physiciens continuent de trouver des surprises.

Une charmante nouvelle approche

Récemment, une équipe dirigée par Juan Rojo de l'Institut national de physique subatomique des Pays-Bas et de l'Université VU d'Amsterdam a analysé plus de 5 000 instantanés de protons pris au cours des 50 dernières années, en utilisant l'apprentissage automatique pour déduire les mouvements des quarks et des gluons à l'intérieur du proton via une procédure qui évite les conjectures théoriques.

Ce nouvel examen a détecté un flou en arrière-plan dans les images qui avait échappé aux chercheurs antérieurs. Dans des collisions relativement douces, juste capables d'ouvrir à peine le proton, la majeure partie de l'impulsion était enfermée dans les trois quarks habituels : deux ups et un down. Mais une petite quantité d’impulsion semble provenir d’un quark " charmé " et d’un antiquark charmé – particules élémentaires colossales dont chacune dépasse de plus d’un tiers le proton entier.

(Image mobie : Le proton agit parfois comme une " molécule " de cinq quarks.)

Ces charmés de courte durée apparaissent fréquemment dans le panorama " mer des quarks " du proton (les gluons peuvent se diviser en six types de quarks différents s'ils ont suffisamment d'énergie). Mais les résultats de Rojo et de ses collègues suggèrent que les charmés ont une présence plus permanente, ce qui les rend détectables lors de collisions plus douces. Dans ces collisions, le proton apparaît comme un mélange quantique, ou superposition, d'états multiples : un électron rencontre généralement les trois quarks légers. Mais il rencontrera occasionnellement une " molécule " plus rare de cinq quarks, comme un quark up, down et charmé regroupés d'un côté et un quark up et un antiquark charmé de l'autre.

Des détails aussi subtils sur la composition du proton pourraient avoir des conséquences. Au Grand collisionneur de hadrons, les physiciens recherchent de nouvelles particules élémentaires en frappant ensemble des protons à grande vitesse et en observant ce qui en ressort ; Pour comprendre les résultats, les chercheurs doivent commencer par savoir ce que contient un proton. L’apparition occasionnelle de quarks charmés géants rendrait impossible la production de particules plus exotiques.

Et lorsque des protons appelés rayons cosmiques déferlent ici depuis l'espace et percutent les protons de l'atmosphère terrestre, des quarks charmés apparaissant au bon moment inonderaient la Terre de neutrinos extra-énergétiques, ont calculé les chercheurs en 2021. Cela pourrait dérouter les observateurs à la recherche de neutrinos à haute énergie provenant de tout le cosmos.

La collaboration de Rojo prévoit de poursuivre l'exploration du proton en recherchant un déséquilibre entre les quarks charmés et les antiquarks. Et des constituants plus lourds, comme le quark top, pourraient faire des apparitions encore plus rares et plus difficiles à détecter.

Les expériences de nouvelle génération rechercheront des fonctionnalités encore plus inconnues. Les physiciens du Laboratoire national de Brookhaven espèrent lancer le collisionneur électron-ion dans les années 2030 et reprendre là où HERA s'est arrêté, en prenant des instantanés à plus haute résolution qui permettront les premières reconstructions 3D du proton. L'EIC utilisera également des électrons en rotation pour créer des cartes détaillées des spins des quarks et des gluons internes, tout comme le SLAC et HERA ont cartographié leurs impulsions. Cela devrait aider les chercheurs à enfin déterminer l'origine du spin du proton et à répondre à d'autres questions fondamentales concernant cette particule déroutante qui constitue l'essentiel de notre monde quotidien.

 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Charlie Bois, 19 octobre 2022

[ univers subatomique ]

 

Commentaires: 0

Ajouté à la BD par miguel

USA

Le paysage médiatique en Amérique est dominé par les "fausses nouvelles". Depuis des décennies. Ces fausses nouvelles n’émanent pas du Kremlin. C’est une industrie de plusieurs milliards de dollars par an, qui est habilement conçue et gérée par des agences de relations publiques, des publicistes et des services de communications au nom d’individus précis, du gouvernement, et des sociétés pour manipuler l’opinion publique.
Cette industrie de la propagande met en scène des pseudo-événements pour façonner notre perception de la réalité. Le public est tellement inondé par ces mensonges, livrés 24 heures par jour à la radio, à la télévision et dans la presse écrite, que les téléspectateurs et les lecteurs ne peuvent plus distinguer entre la vérité et la fiction.
Donald Trump et les théoriciens racistes-conspirateurs, les généraux et les milliardaires autour de lui, ont hérité et exploité cette situation, tout comme ils ont hérité et exploiteront la destruction des libertés civiles et l’effondrement des institutions démocratiques. Trump n’a pas créé ce vide politique, moral et intellectuel. C’est l’inverse. Ce vide a créé un monde où les faits changent avec l’opinion, où les célébrités ont d’énormes mégaphones tout simplement parce que ce sont des célébrités, où l’information doit être divertissante et où nous avons la possibilité de croire ce que nous voulons, indépendamment de la vérité. Un démagogue comme Trump est le résultat que vous obtenez quand la culture et la presse tournent au burlesque.
Les journalistes ont depuis longtemps renoncé à décrire un monde objectif ou à donner la parole aux hommes et aux femmes ordinaires. Ils ont été conditionnés pour répondre aux demandes des entreprises. Les personnalités de l’actualité, qui gagnent souvent des millions de dollars par an, deviennent courtisanes. Elles vendent des commérages. Elles favorisent le consumérisme et l’impérialisme. Elles bavardent sans cesse au sujet des sondages, des stratégies, de la présentation et des tactiques ou jouent à des jeux de devinettes sur les rendez-vous présidentiels à venir. Elles comblent l’absence de nouvelles avec des histoires triviales, conduites émotionnellement, qui nous font sentir bien dans notre peau. Ils sont incapables de produire de véritables reportages. Elles s’appuient sur des propagandistes professionnels pour encadrer toute discussion et débat.
Il y a des journalistes établis qui ont passé toute leur carrière à reformuler des communiqués de presse ou à participer à des séances d’information officielles ou à des conférences de presse – j’en connaissais plusieurs lorsque j’étais au New York Times. Ils travaillent comme sténographes des puissants. Beaucoup de ces reporters sont très estimés dans la profession.
Les entreprises qui possèdent des médias, contrairement aux anciens empires de presse, voient les nouvelles comme simplement une autre source de revenus publicitaires. Ces revenus concourent au bénéfice de l’entreprise. Lorsque le secteur des nouvelles ne produit pas ce qui est considéré comme un profit suffisant, la hache tombe. Le contenu n’est pas pertinent. Les courtisans de la presse, redevables à leurs seigneurs dans l’entreprise, s’accrochent férocement à des places privilégiées et bien rémunérées. Parce qu’ils endossent servilement les intérêts du pouvoir des entreprises, ils sont haïs par les travailleurs américains, qu’ils ont rendus invisibles. Ils méritent la haine qu’ils suscitent.
La plupart des rubriques d’un journal – "style de vie", voyages, immobilier et mode, entre autres – sont conçues pour s’adresser au 1%. Ce sont des appâts pour la publicité. Seulement environ 15% de la surface rédactionnelle de n’importe quel journal est consacrée aux nouvelles. Si vous supprimez de ces 15% le contenu fourni par l’industrie des relations publiques à l’intérieur et à l’extérieur du gouvernement, le pourcentage de nouvelles tombe à un seul chiffre. Pour les nouvelles diffusées par les ondes et le câble, le pourcentage des nouvelles véritables, rapportées de façon indépendante, serait proche de zéro.
L’objet des fausses nouvelles est de façonner l’opinion publique, en créant des personnalités fantoches et des réponses émotionnelles qui submergent la réalité. Hillary Clinton, contrairement à la façon dont elle a souvent été dépeinte lors de la récente campagne présidentielle, n’a jamais combattu dans l’intérêt des femmes et des enfants – elle avait défendu la destruction d’un système d’aide sociale dans lequel 70% des bénéficiaires étaient des enfants. Elle est un outil des grandes banques, de Wall Street et de l’industrie de guerre. De pseudo-événements ont été créés pour maintenir la fiction de son souci pour les femmes et les enfants, de sa compassion et de ses liens avec les gens ordinaires. Trump n’a jamais été un grand homme d’affaires. Il a une longue histoire de faillites et de pratiques commerciales obscures. Mais il a joué le rôle fictif d’un titan de la finance dans son émission de télé-réalité, L’Apprenti.
"Les pseudo-événements qui inondent notre conscience ne sont ni vrais ni faux, dans le vieux sens familier", écrit Daniel Boorstin dans son livre L’image : un guide des pseudo-événements en Amérique : "Les mêmes progrès qui les ont rendues possibles, ont aussi rendu les images plus réalistes, plus attirantes, plus impressionnantes et plus convaincantes que la réalité elle-même, bien que planifiées, artificielles ou déformées."
La réalité est consciemment prémâchée en récits faciles à digérer. Ceux qui sont impliqués dans les relations publiques, les campagnes politiques et le gouvernement ressassent implacablement le message. Ils ne s’écartent pas du simple slogan criard ou du cliché qu’ils sont invités à répéter. C’est une espèce de conversation continue avec des bébés.
"Les raffinements de la raison et les nuances d’ombre de l’émotion ne peuvent pas atteindre un public considérable", a noté cyniquement Edward Bernays, le père des relations publiques modernes.
Le rythme trépidant et le format abrégé de la télévision excluent les complexités et les nuances. La télévision est manichéenne, bien et mal, noir et blanc, héros et méchant. Elle nous fait confondre les émotions induites avec la connaissance. Elle renforce le récit mythique de la vertu et de la bonté américaines. Elle rend hommage à des experts et spécialistes soigneusement sélectionnés par les élites du pouvoir et l’idéologie régnante. Elle discrédite ou ridiculise tous ceux qui s’opposent.
Le Parti démocrate est-il assez stupide pour croire qu’il a perdu l’élection présidentielle à cause des courriels fuités de John Podesta et de la décision du directeur du FBI, James Comey, peu de temps avant le vote, d’envoyer une lettre au Congrès à propos du serveur de messagerie privé de Clinton ? La direction du parti démocrate ne peut-elle pas voir que la cause première de la défaite est qu’elle a abandonné les travailleurs pour promouvoir les intérêts des entreprises ? Ne comprend-t’elle pas que, bien que ses mensonges et sa propagande aient fonctionné pendant trois décennies, les Démocrates ont fini par perdre leur crédibilité auprès de ceux qu’ils avaient trahis ?
L’indignation de l’establishment démocratique, au sujet de la fuite de courrier électronique vers le site de WikiLeaks, ignore le fait qu’une telle divulgation d’information dommageable est une tactique employée couramment par le gouvernement des États-Unis et d’autres, y compris la Russie, pour discréditer des individus et des entités. Cela fait partie intégrante de la presse. Personne, même au sein du parti démocrate, n’a fait valoir de façon convaincante que les emails de Podesta étaient fabriqués. Ces courriels sont réels. Ils ne peuvent pas être étiquetés fausses nouvelles.
En tant que correspondant à l’étranger, j’ai reçu régulièrement des informations divulguées, parfois confidentielles, de divers groupes ou gouvernements cherchant à endommager certaines cibles. L’agence de renseignement nationale d’Israël, le Mossad, m’avait parlé d’un petit aéroport appartenant au gouvernement iranien à l’extérieur de Hambourg, en Allemagne. Je suis allé à l’aéroport et j’ai publié une enquête qui a constaté que, comme les Israéliens m’en avaient correctement informé, l’Iran l’utilisait pour démonter du matériel nucléaire, l’expédier en Pologne, le remonter et l’envoyer vers l’Iran par avion. L’aéroport a été fermé après mon article.
Dans un autre cas, le gouvernement des États-Unis m’a remis des documents montrant qu’un membre important du parlement chypriote et son cabinet d’avocats blanchissaient de l’argent pour la mafia russe. Mon histoire a paralysé les affaires légitimes du cabinet d’avocats et a incité le politicien à poursuivre The New York Times et moi. Les avocats du journal ont choisi de contester la poursuite devant un tribunal chypriote, en disant qu’ils ne pouvaient pas obtenir un procès équitable là-bas. Ils m’ont dit que, pour éviter l’arrestation, je ne devais pas retourner à Chypre.
Je pourrais remplir plusieurs colonnes avec des exemples comme ceux-ci.
Les gouvernements n’organisent pas des fuites parce qu’ils se soucient de la démocratie ou d’une presse libre. Ils le font parce qu’il est dans leur intérêt de faire tomber quelqu’un ou quelque chose. Dans la plupart des cas, parce que le journaliste vérifie l’information divulguée, la nouvelle n’est pas un faux. C’est lorsque le journaliste ne vérifie pas l’information – comme ce fut le cas lorsque le New York Times a rapporté sans scrupule les accusations de l’administration Bush prétendant faussement que Saddam Hussein avait des armes de destruction massive en Irak – qu’il participe à la vaste industrie des fausses nouvelles.
De fausses nouvelles sont maintenant utilisées pour dépeindre des sites d’information indépendants, y compris Truthdig, et des journalistes indépendants, comme des informateurs ou des agents involontaires de la Russie. Les élites des partis républicain et démocrate utilisent des fausses nouvelles dans leur tentative pour présenter Trump comme une marionnette du Kremlin et invalider l’élection. Aucune preuve convaincante de telles accusations n’a été rendue publique. Mais la fausse nouvelle est devenue un bélier dans la dernière série de diffamations russophobes.
Dans une lettre à Truthdig, datée du 7 décembre, l’avocat du Washington Post (qui a publié un article le 24 novembre à propos d’allégations selon lesquelles Truthdig et quelque 200 autres sites Web étaient des outils de propagande russe), disait que l’auteur de l’article, Craig Timberg connaissait l’identité des accusateurs anonymes de PropOrNot, le groupe qui a fait les accusations. [Note de la rédaction de Truthdig : l’avocat a écrit, en partie, au sujet de l’article du 24 novembre et de PropOrNot, "La description de l’article repose sur des rapports substantiels de M. Timberg, y compris de nombreuses entrevues, des vérifications d’antécédents de personnes spécifiques impliquées dans le groupe (dont les identités étaient connues de Timberg, contrairement à vos spéculations). […]"]. Le Washington Post dit qu’il doit protéger l’anonymat de PropOrNot. Il a transmis une fausse accusation sans preuve. Les victimes, dans ce cas, ne peuvent pas répondre adéquatement, parce que les accusateurs sont anonymes. Ceux qui sont diffamés sont informés qu’ils devraient faire appel à PropOrNot pour obtenir que leurs noms soient retirés de la liste noire du groupe. Ce procédé de raisonnement circulaire donne de la crédibilité aux groupes anonymes qui établissent des listes noires et propagent des fausses nouvelles, ainsi qu’aux mensonges qu’ils répandent.
La transformation culturelle et sociale du XXe siècle, dont E.P. Thompson a parlé dans son essai Time, Work-Discipline, and Industrial Capitalism, s’est avérée être beaucoup plus que l’étreinte d’un système économique ou la célébration du patriotisme. Cela fait partie, a-t-il souligné, d’une réinterprétation révolutionnaire de la réalité. Elle marque l’ascendant de la culture de masse, la destruction de la culture authentique et de la véritable vie intellectuelle.
Richard Sennett, dans son livre The Fall of the Public Man, a identifié la montée de la culture de masse comme l’une des forces principales derrière ce qu’il a appelé une nouvelle "personnalité collective […] engendrée par un fantasme commun". Et les grands propagandistes du siècle sont non seulement d’accord, mais ajoutent que ceux qui peuvent manipuler et façonner ces fantasmes déterminent les directions prises par la "personnalité collective".
Cette énorme pression interne, cachée à la vue du public, rend la production d’un bon journalisme et d’une bonne érudition très, très difficile. Les journalistes et les universitaires qui se soucient de la vérité, et ne reculent pas, sont soumis à une coercition subtile, parfois ouverte, et sont souvent purgés des institutions.
Les images, qui sont le moyen par lequel la plupart des gens ingèrent maintenant les informations, sont particulièrement enclines à être transformées en fausses nouvelles. La langue, comme le remarque le critique culturel Neil Postman, "ne fait sens que lorsqu’elle est présentée comme une suite de propositions. La signification est déformée lorsqu’un mot ou une phrase est, comme on dit, pris hors contexte. Quand un lecteur ou un auditeur est privé de ce qui a été dit avant et après". Les images n’ont pas de contexte. Elles sont "visibles d’une manière différente". Les images, surtout lorsqu’elles sont livrées en segments longs et rapides, démembrent et déforment la réalité. Le procédé "recrée le monde dans une série d’événements idiosyncrasiques".
Michael Herr, qui a couvert la guerre du Vietnam pour le magazine Esquire, a observé que les images de la guerre présentées dans les photographies et à la télévision, à la différence du mot imprimé, obscurcissent la brutalité du conflit. "La télévision et les nouvelles ont toujours été présentées comme ayant mis fin à la guerre, a déclaré M. Herr. J’ai pensé le contraire. Ces images ont toujours été vues dans un autre contexte – intercalées entre les publicités – de sorte qu’elles sont devenues un entremet sucré dans l’esprit du public. Je pense que cette couverture a prolongé la guerre."
Une population qui a oublié l’imprimerie, bombardée par des images discordantes et aléatoires, est dépouillée du vocabulaire ainsi que du contexte historique et culturel permettant d’articuler la réalité. L’illusion est la vérité. Un tourbillon d’élans émotionnels fabriqués nourrit notre amnésie historique.
Internet a accéléré ce processus. Avec les nouvelles par câble, il a divisé le pays en clans antagonistes. Les membres d’un clan regardent les mêmes images et écoutent les mêmes récits, créant une réalité collective. Les fausses nouvelles abondent dans ces bidonvilles virtuels. Le dialogue est clos. La haine des clans opposés favorise une mentalité de troupeau. Ceux qui expriment de l’empathie pour l’ennemi sont dénoncés par leurs compagnons de route pour leur impureté supposée. C’est aussi vrai à gauche qu’à droite. Ces clans et leurs troupeaux, gavés régulièrement de fausses nouvelles conçues pour émouvoir, ont donné naissance à Trump.
Trump est habile à communiquer à travers l’image, les slogans tapageurs et le spectacle. Les fausses nouvelles, qui dominent déjà la presse écrite et la télévision, définiront les médias sous son administration. Ceux qui dénonceront les mensonges seront vilipendés et bannis. L’État dévoué aux grandes entreprises multinationales a créé cette machine monstrueuse de propagande et l’a léguée à Trump. Il l’utilisera.

Auteur: Hedges Chris

Info: Internet, Truthdig, 18 décembre 2016

[ Etats-Unis ] [ Russie ] [ vingt-et-unième siècle ]

 

Commentaires: 0

civilisation

Pour expliquer les États-Unis d'Amérique, on les a comparés, avec raison, à un creuset. L'Amérique est en effet un de ces cas où, à partir d'une matière première on ne peut plus hétérogène, a pris naissance un type d'homme dont les caractéristiques sont, dans une large mesure, uniformes et constantes. Des hommes des peuples les plus divers reçoivent donc, en s'installant en Amérique, la même empreinte. Presque toujours, après deux générations, ils perdent leurs caractéristiques originelles et reproduisent un type assez unitaire pour ce qui est de la mentalité, de la sensibilité et des modes de comportement : le type américain justement.

Mais, dans ce cas précis, des théories comme celles formulées par Frobenius et Spengler – il y a aurait une étroite relation entre les formes d'une civilisation et une sorte d' "âme" liée au milieu naturel, au "paysage" et à la population originelle – ne semblent pas pertinentes. S'il en était ainsi, en Amérique l'élément constitué par les Amérindiens, par les Peaux-Rouges, aurait dû jouer un rôle important. Les Peaux-Rouges étaient une race fière, possédant style, dignité, sensibilité et religiosité ; ce n'est pas sans raison qu'un auteur traditionaliste, F. Schuon, a parlé de la présence en eux de quelque chose "d'aquilin et de solaire". Et nous n'hésitons pas à affirmer que si leur esprit avait marqué, sous ses meilleurs aspects et sur un plan adéquat, la matière mélangée dans le "creuset américain", le niveau de la civilisation américaine aurait été probablement plus élevé. Mais, abstraction faite de la composante puritaine et protestante (qui se ressent à son tour, en raison de l'insistance fétichiste sur l'Ancien Testament, d'influences judaïsantes négatives), il semble que ce soit l'élément noir, avec son primitivisme, qui ait donné le ton à bien des traits décisifs de la mentalité américaine.

Une première chose est, à elle seule, caractéristique : quand on parle de folklore en Amérique, c'est aux Noirs qu'on pense, comme s'ils avaient été les premiers habitants du pays. Si bien qu'on traite, aux États-Unis, comme un oeuvre classique inspirée du "folklore américain", le fameux Porgy and Bess du musicien d'origine juive Gershwin, oeuvre qui ne parle que des Noirs. Cet auteur déclara d'ailleurs que, pour écrire son oeuvre, il se plongea pendant un certain temps dans l'ambiance des Noirs américains. Le phénomène représenté par la musique légère et la danse est encore plus frappant. On ne peut pas donner tort à Fitzgerald, qui a dit que, sous un de ses principaux aspects, la civilisation américaine peut être appelée une civilisation du jazz, ce qui veut dire d'une musique et d'une danse d'origine noire ou négrifiée. Dans ce domaine, des "affinités électives" très singulières ont amené l'Amérique, tout au long d'un processus de régression et de retour au primitif, à s'inspirer justement des Noirs, comme si elle n'avait pas pu trouver, dans son désir compréhensible de création de rythmes et de formes frénétiques en mesure de compenser le côté desséché de la civilisation mécanique et matérielle moderne, rien de mieux. Alors que de nombreuses sources européennes s'offraient à elle - nous avons déjà fait allusion, en une autre occasion, aux rythmes de danse de l'Europe balkanique, qui ont vraiment quelque chose de dionysiaque. Mais l'Amérique a choisi les Noirs et les rythmes afro-cubains, et la contagion, à partir d'elle, a gagné peu à peu les autres pays.

Le psychanalyste C.-G. Jung avait déjà remarqué la composante noire du psychisme américain. Certaines de ses observations méritent d'être reproduites ici : "Ce qui m'étonna beaucoup, chez les Américains, ce fut la grande influence du Noir. Influence psychologique, car je ne veux pas parler de certains mélanges de sang. Les expressions émotives de l'Américain et, en premier lieu, sa façon de rire, on peut les étudier fort bien dans les suppléments des journaux américains consacrés au society gossip. Cette façon inimitable de rire, de rire à la Roosevelt, est visible chez le Noir américain sous sa forme originelle. Cette manière caractéristique de marcher, avec les articulations relâchées ou en balançant des hanches, qu'on remarque souvent chez les Américains, vient des Noirs. La musique américaine doit aux Noirs l'essentiel de son inspiration. Les danses américaines sont des danses de Noirs. Les manifestations du sentiment religieux, les revival meetings, les holy rollers et d'autres phénomènes américains anormaux sont grandement influencés par le Noir. Le tempérament extrêmement vif en général, qui s'exprime non seulement dans un jeu comme le base ball, mais aussi, et en particulier, dans l'expression verbale – le flux continu, illimité, de bavardages, typique des journaux américains, en est un exemple remarquable –, ne provient certainement pas des ancêtres d'origine germanique, mais ressemble au chattering de village nègre. L'absence presque totale d'intimité et la vie collective qui contient tout rappellent, en Amérique, la vie primitive des cabanes ouvertes où règne une promiscuité complète entre les membres de la tribu".

Poursuivant des observations de ce genre, Jung a fini par se demander si les habitants du nouveau continent peuvent encore être considérés comme des Européens. Mais ses remarques doivent être prolongées. Cette brutalité, qui est un des traits évidents de l'Américain, on peut dire qu'elle possède une empreinte noire. D'une manière générale, le goût de la brutalité fait désormais partie de la mentalité américaine. II est exact que le sport le plus brutal, la boxe, est né en Angleterre ; mais il est tout aussi exact que c'est aux États-Unis qu'il a connu les développements les plus aberrants au point de faire l'objet d'un véritable fanatisme collectif, bien vite transmis aux autres peuples. En ce qui concerne la tendance à en venir aux mains de la façon la plus sauvage qui soit, il suffit d'ailleurs de songer à une quantité de films américains et à l'essentiel de la littérature populaire américaine, la littérature "policière" : les coups de poing y sont monnaie courante, parce qu'ils répondent évidemment aux goûts des spectateurs et des lecteurs d'outre-Atlantique, pour lesquels la brutalité semble être la marque de la vraie virilité. La nation-guide américaine a depuis longtemps relégué, plus que toute autre, parmi les ridicules antiquailles européennes, la manière de régler un différend par les voies du droit, en suivant des normes rigoureuses, sans recourir à la force brute et primitive du bras et du poing, manière qui pouvait correspondre au duel traditionnel. On ne peut que souligner l'abîme séparant ce trait de la mentalité américaine de ce que fut l'idéal de comportement du gentleman anglais, et ce, bien que les Anglais aient été une composante de la population blanche originelle des États-Unis. On peut comparer l'homme occidental moderne, qui est dans une large mesure un type humain régressif, à un crustacé : il est d'autant plus "dur" dans son comportement extérieur d'homme d'action, d'entrepreneur sans scrupules, qu'il est "mou" et inconsistant sur le plan de l'intériorité. Or, cela est éminemment vrai de l'Américain, en tant qu'il incarne le type occidental dévié jusqu'à l'extrême limite.

On rencontre ici une autre affinité avec le Noir. Un sentimentalisme fade, un pathos banal, notamment dans les relations sentimentales, rapprochent bien plus l'Américain du Noir que de l'Européen vraiment civilisé. L'observateur peut à ce sujet tirer aisément les preuves irréfutables à partir de nombreux romans américains typiques, à partir aussi des chansons, du cinéma et de la vie privée courante. Que l'érotisme de l'Américain soit aussi pandémique que techniquement primitif, c'est une chose qu'ont déplorée aussi et surtout des jeunes filles et des femmes américaines. Ce qui ramène une fois de plus aux races noires, chez lesquelles l'importance, parfois obsessionnelle, qu'ont toujours eu l'érotisme et la sexualité, s'associe, justement, à un primitivisme ; ces races, à la différence des Orientaux, du monde occidental antique et d'autres peuples encore, n'ont jamais connu un ars amatoria digne de ce nom. Les grands exploits sexuels, si vantés, des Noirs, n'ont en réalité qu'un grossier caractère quantitatif et priapique.

Un autre aspect typique du primitivisme américain concerne l'idée de "grandeur". Werner Sombart a parfaitement vu la chose en disant : they mistake bigness for greatness, phrase qu'on pourrait traduire ainsi : ils prennent la grandeur matérielle pour la vraie grandeur, pour la grandeur spirituelle. Or, ce trait n'est pas propre à tous les peuples de couleur en général. Par exemple, un Arabe de vieille race, un Peau-Rouge, un Extrême-Oriental ne se laissent pas trop impressionner par tout ce qui est grandeur de surface, matérielle, quantitative, y compris la grandeur liée aux machines, à la technique, à l'économie (abstraction faite, naturellement, des éléments déjà occidentalisés de ces peuples). Pour se laisser prendre par tout cela ; il fallait une race vraiment primitive et infantile comme la race noire. Il n'est donc pas exagéré de dire que le stupide orgueil des Américains pour la "grandeur" spectaculaire, pour les achievements de leur civilisation, se ressent lui aussi d'une disposition du psychisme nègre. On peut aussi parler d'une des bêtises que l'on entend souvent répéter, à savoir que les Américains seraient une "race jeune", avec pour corollaire tacite que c'est à eux qu'appartient l'avenir. Car un regard myope peut facilement confondre les traits d'une jeunesse effective avec ceux d'un infantilisme régressif. Du reste, il suffit de reprendre la conception traditionnelle pour que la perspective soit renversée. En dépit des apparences, les peuples récemment formés doivent être considérés comme les peuples les plus vieux et, éventuellement, comme des peuples crépusculaires, parce qu'ils sont venus en dernier justement, parce qu'ils sont encore plus éloignés des origines.

Cette manière de voir les choses trouve d'ailleurs une correspondance dans le monde des organismes vivants. Ceci explique la rencontre paradoxale des peuples présumés "jeunes" (au sens de peuples venus en dernier) avec des races vraiment primitives, toujours restées en dehors de la grande histoire ; cela explique le goût de ce qui est primitif et le retour à ce qui est primitif. Nous l'avons déjà fait remarquer à propos du choix fait par les Américains, à cause d'une affinité élective profonde, en faveur de la musique nègre et sub-tropicale ; mais le même phénomène est perceptible aussi dans d'autres domaines de la culture et de l'art. On peut se référer, par exemple, au culte assez récent de la négritude qu'avaient fondé en France des existentialistes, des intellectuels et des artistes "progressistes".

Une autre conclusion à tirer de tout cela, c'est que les Européens et les représentants de civilisations supérieures non européennes font preuve, à leur tour, de la même mentalité de primitif et de provincial lorsqu'ils admirent l'Amérique, lorsqu'ils se laissent impressionner par l'Amérique, lorsqu'ils s'américanisent avec stupidité et enthousiasme, croyant ainsi marcher au pas du progrès et témoigner d'un esprit "libre" et "ouvert". La marche du progrès concerne aussi l' "intégration" sociale et culturelle du Noir, qui se répand en Europe même et qui est favorisée, même en Italie, par une action sournoise, notamment au moyen de films importés (où Blancs et Noirs remplissent ensemble des fonctions sociales : juges, policiers, avocats, etc.) et par la télévision, avec des spectacles où danseuses et chanteuses noires sont mélangées à des blanches, afin que le grand public s'accoutume peu à peu à la promiscuité des races, perde tout reste de conscience raciale naturelle et tout sentiment de la distance. Le fanatisme collectif qu'a provoqué en Italie, lors de ses exhibitions, cette masse de chair informe et hurlante qu'est la Noire Ella Fitzgerald, est un signe aussi triste que révélateur. On peut en dire autant du fait que l'exaltation la plus délirante de la "culture" nègre, de la négritude, soit due à un Allemand, Janheinz Jahn, dont le livre Muntu, publié par une vieille et respectable maison d'édition allemande (donc dans le pays du racisme aryen !), a été immédiatement traduit et diffusé par un éditeur italien de gauche bien connu, Einaudi. Dans cet ouvrage invraisemblable, l'auteur en arrive à soutenir que la "culture" nègre serait un excellent moyen de relever et de régénérer la "civilisation matérielle" occidentale... Au sujet des affinités électives américaines, nous ferons allusion à un dernier point. On peut dire qu'il y a eu aux États-Unis d'Amérique quelque chose de valable, vraiment prometteur : le phénomène de cette jeune génération qui prônait une sorte d'existentialisme révolté, anarchiste, anticonformiste et nihiliste ; ce qu'on a appelé la beat generation, les beats, les hipsters et compagnie, sur lesquels nous reviendrons d'ailleurs. Or, même dans ce cas, la fraternisation avec les Noirs, l'instauration d'une véritable religion du jazz nègre, la promiscuité affichée, y compris sur le plan sexuel, avec les Noirs, ont fait partie des caractéristiques de ce mouvement.

Dans un essai célèbre, Norman Mailer, qui a été un des principaux représentants de la beat generation, avait même établi une sorte d'équivalence entre le Noir et le type humain de la génération en question ; il avait carrément appelé ce dernier the white Negro, le "nègre blanc". A ce propos, Fausto Gianfranceschi a écrit très justement : "En raison de la fascination exercée par la 'culture' nègre, sous la forme décrite par Mailer, on ne peut s'empêcher d'établir immédiatement un parallèle – irrespectueux – avec l'impression que fit le message de Friedrich Nietzsche au début du XIXe siècle. Le point de départ, c'est le même désir de rompre tout ce qui est fossilisé et conformiste par une prise de conscience brutale du donné vital et existentiel ; mais quelle confusion lorsqu'on met le Noir, comme on l'a fait de nos jours, avec le jazz et l'orgasme sexuel, sur le piédestal du "surhomme" !

Pour la bonne bouche nous terminerons par un témoignage significatif dû à un écrivain américain particulièrement intéressant, James Burnham (dans "The struggle for the world") : "On trouve dans la vie américaine les signes d'une indiscutable brutalité. Ces signes se révèlent aussi bien dans le lynchage et le gangstérisme que dans la prétention et la goujaterie des soldats et des touristes à l'étranger. Le provincialisme de la mentalité américaine s'exprime par un manque de compréhension pour tout autre peuple et toute autre culture. Il y a, chez de nombreux Américains, un mépris de rustre pour les idées, les traditions, l'histoire, un mépris lié à l'orgueil pour les petites choses dues au progrès matériel. Qui, après avoir écouté une radio américaine, ne sentira pas un frisson à la pensée que le prix de la survie serait l'américanisation du monde ?"

Ce qui, malheureusement, est déjà en train de se produire sous nos yeux.

Auteur: Evola Julius

Info: L'arc et la massue (1971, 275p.)

[ racialisme ] [ melting-pot ] [ nouveau monde ] [ désintégration ] [ ethno-différentialisme ]

 
Commentaires: 2

compte-rendu de lecture

Les pépites de Charles S. Peirce

L’œuvre de Peirce est plutôt disparate, souvent dense et incontestablement précieuse. S’y inventent tout à la fois une notion très déterminée de l’épistémologie, une théorie de la vérité ou encore un rapport particulier à la logique. Entre autres.

Charles Sanders Peirce est un auteur que tout philosophe gagnerait à fréquenter, car il y trouverait, pour parler comme Russell, qui n’avait pourtant pas été tendre pour la théorie pragmatiste de la vérité, "des pépites d’or pur". Il est vrai qu’il faut pour cela s’armer de patience, car les obstacles à surmonter sont nombreux. Un peu comme Leibniz, Peirce est un polymathe, qui n’a jamais exercé de fonction universitaire durable et a laissé une œuvre très éclatée, composée d’une foule de petits textes, d’accès souvent difficile, entre lesquels il faut sans cesse naviguer. Il a adopté une morale terminologique propre à dissuader le lecteur le mieux disposé, pour traiter des sujets de surcroît le plus souvent très ardus. Une vue d’ensemble, comme celle offerte dans le présent ouvrage, est donc particulièrement bienvenue, même si elle se heurte à des difficultés dont l’auteur était bien conscient. Vouloir, en quelque trois cents pages, présenter à la fois la diversité des domaines abordés et la richesse des analyses élaborées tenait un peu de la gageure. Pour réussir, J.-M. Chevalier a choisi une écriture très dense et, faute de pouvoir le suivre dans tous les détails de son argumentation, il faut se contenter d’en prendre une vue on ne peut plus schématique.

Une épistémologie à inventer

Peirce est connu pour être le père du pragmatisme, mais l’auteur nous propose de voir aussi en lui l’inventeur de l’épistémologie. Ce faisant, il joue sur l’équivoque d’un mot qui, sous l’influence de l’anglais, ne signifie plus seulement philosophie des sciences, mais plus généralement théorie de la connaissance, le mot gnoséologie n’ayant jamais réussi à entrer dans l’usage. Si, au premier sens, l’affirmation est manifestement fausse, même dans le dernier cas elle ne va pas de soi, la théorie de la connaissance s’étant constituée, dès avant Peirce, en discipline bien établie (p. 10). Toutefois, entre l’Erkenntnistheorie des néo-kantiens et l’actuelle epistemology, il y a bien une rupture dont Peirce est l’un des principaux artisans, de sorte que l’épistémologie dont il sera question était bien alors "une discipline encore à inventer" (p. 9). La référence à Kant n’en est pas moins omniprésente. Comme pour ce dernier, il s’agit de rendre compte des conditions de possibilité de la connaissance, de sorte que la perspective transcendantale est conservée, mais sensiblement infléchie. Le rapport à Kant est en effet doublé d’un autre rapport, d’une tout autre nature, mais non moins important, à Mill. En cent ans, les sciences expérimentales avaient en effet connu un essor prodigieux et, sous l’influence de l’empirisme, on avait eu tendance à attribuer ce succès à l’induction. À la différence de Kant, il convenait donc d’adopter un point de vue historique et d’expliquer aussi le progrès des connaissances ; de même, contre Mill, il était urgent de constituer une nouvelle théorie de l’induction. Aussi l’auteur a choisi de prendre comme fil conducteur l’élaboration de cette pièce maîtresse de la nouvelle épistémologie (p. 6, 108), car, sans s’identifier, les deux tâches sont étroitement liées et mettent en particulier en valeur la place qu’occupe dans ces deux cas la logique.

L’examen de la question suit les quatre grandes périodes qui scandent la vie intellectuelle de Peirce : la recherche d’une méthode (1857-67) ; l’enquête en théorie et en pratique (1868-1884, la grande époque, où Peirce devient Peirce et pose les fondements du pragmatisme) ; lois de la nature et loi de l’esprit (1884-1902, l’audacieuse synthèse d’une métaphysique scientifique) ; pragmatisme et science normative (1902-1914, la remise en chantier du pragmatisme dans un cadre architectonique).

Peirce et la logique

Peirce est entré en philosophie, à l’âge de douze ans, "en tombant dans la marmite logique" (p. 15), et il tiendra pendant plus de quarante ans un logic notebook. Il a d’ailleurs laissé dans ce domaine des contributions de premier plan. Ainsi, il a découvert, indépendamment de Frege, et en même temps que lui, la théorie des quantificateurs ; mais cela n’intéresse que les logiciens et s’inscrit de plus dans une approche algébrique de la logique qui sera écartée au profit du logicisme ou de la théorie de la démonstration.

L’ouvrage insiste bien davantage sur l’élargissement considérable de l’idée de logique, qui aboutit à quelque chose de fort différent de ce qui s’enseigne sous ce nom aujourd’hui et qu’on a proposé d’appeler un socialisme logique (208). La logique est d’abord un art de penser et Peirce posera en "première règle de la logique" la maxime : "pour apprendre il faut désirer apprendre" (p. 210). De même, un lien étroit est établi entre logique et morale : "la pensée logique est la pensée morale" (p. 247) ; "pour être logiques, les hommes ne doivent pas être égoïstes" (p. 116 ; plus généralement, 114-119, 247-252)

Un autre trait caractéristique de Peirce est de maintenir les liens existants depuis Aristote entre logique et métaphysique ; et cela de deux façons. Il y a d’une part la théorie des catégories, présente dès le départ, sous l’influence de Kant. Très vite, elles prennent la forme d’une triade (priméité, secondéité et tiercéité) qui sert de trame à bien des constructions ultérieures. L’auteur montre bien que cette théorie occupe une place assez déconcertante pour que Peirce se soit vu obligé de "se défendre d’une tendance pathologique à la triadomanie" (p. 226). Plus classique, il y a aussi la question du réalisme et des universaux, qui témoigne d’une connaissance de la logique médiévale très rare à l’époque. Peirce abandonnera vite son nominalisme initial pour adhérer à un réalisme hautement revendiqué. Mais ce réalisme n’exclut pas un idéalisme à la Schelling : l’esprit n’est que de la matière assoupie (p. 199). Enfin, on retrouve la dimension morale de la logique, car la querelle des universaux n’est pas seulement spéculative : le nominalisme, qui ne reconnaît que les individus, est lié à l’individualisme, alors que le réalisme, qui reconnaît la réalité des genres, conduit à l’altruisme.

Fonder l’induction

Si les logiciens contemporains ignorent assez largement l’idée de logique inductive pour ne s’intéresser qu’à l’idée de conséquence valide, Aristote mettait pourtant déjà en parallèle induction et déduction. Quant à Peirce, son goût pour les schémas tripartites le conduit à introduire dès le début, à côté de celles-ci, une autre composante. Comme on l’a déjà signalé, Peirce se fait de la logique une idée très large. Pour lui, comme pour Descartes, logique est un peu synonyme de méthode. Elle doit en particulier rendre compte de la démarche des sciences expérimentales. Celles-ci utilisent la déduction (de l’hypothèse à ses conséquences), l’induction (on dit que ce sont des sciences inductives) ; mais cela ne suffit pas et déjà Comte, dans le Cours de philosophie positive, avait souligné l’intervention d’une troisième opération, qu’il appelait hypothèse, comme Peirce au début ; mais celui-ci pour souligner l’appartenance à la logique, parlera par la suite de rétroduction, ou d’abduction.

Pour comprendre la focalisation sur l’induction, il faut revenir au rapport qu’elle entretient avec l’épistémologie encore à inventer. Si l’induction est au cœur de la connaissance expérimentale, qui est à son tour, beaucoup plus que l’a priori, au cœur de la connaissance, alors l’épistémologie aura pour pièce maîtresse une théorie de l’induction. Le problème en effet ne porte pas seulement sur les conditions de possibilité de la connaissance. Il s’agit d’expliquer l’essor prodigieux des sciences expérimentales, l’efficacité de la connaissance. Dans le cadre transcendantal hérité de Kant, l’induction est pratiquement absente. De ce point de vue, la référence à Mill remplit une double fonction. L’auteur du System of Logic vient réveiller Peirce de son sommeil critique et lui rappeler que les sciences expérimentales seraient des sciences inductives. Mais il sert aussi de repoussoir, sa théorie de l’induction, et en particulier le fondement qu’il lui donnait, étant inacceptables. Peirce n’aura de cesse de trouver une solution qui ne fasse appel ni au sujet transcendantal, ni à l’uniformité de la nature et, preuve de l’importance qu’il accordait à la question, il en proposera d’ailleurs plusieurs.

La première, qui coïncide avec la naissance du pragmatisme, comprend deux composantes. De façon très novatrice, elle recourt massivement à la théorie des probabilités et aux statistiques, présentes dès les tout premiers travaux de Peirce, fidèle en cela à Boole, qui associait déjà logique et probabilité. L’approche était incontestablement féconde et Carnap rapprochera à son tour logique inductive et probabilité. Aussi l’auteur accorde une attention toute particulière aux développements extrêmement originaux consacrés à cet aspect. Mais simultanément, à un autre niveau, pour expliquer le succès de la connaissance, il faut mettre en place les concepts fondamentaux du pragmatisme entendu comme théorie de l’enquête et étude des différents moyens de fixer la croyance. L’accord entre ces deux composantes, approche statistique de l’induction et découverte de la vérité, va si peu de soi que Putnam a parlé à ce propos d’énigme de Peirce (p. 115) : pourquoi des fréquences, à long terme, devraient-elles guider des choix à court terme ?

La réponse mène au principe social de la logique, puisqu’elle opère un transfert psychologique de l’individu à la communauté. La conception fréquentiste ne pouvait attribuer de probabilité aux cas uniques. Pour résoudre la difficulté, Peirce propose d’interpréter chaque évènement possible comme le choix d’un membre de la communauté. Puisqu’il y a autant de choix que de membres, et que plusieurs membres peuvent faire le même choix, il devient possible de déterminer des fréquences. Le sujet transcendantal s’efface ainsi et cède la place à la cité savante : si la communauté agit conformément aux probabilités, elle connaîtra plus de succès que d’échec.

Avec le temps, la solution proposée en 1878 dans les Illustrations de la logique de la science s’avérera toutefois insatisfaisante et, après 1904, la reprise de la question obligera à remettre en chantier la théorie du pragmatisme. Tout commence par un mea culpa : "dans presque tout ce que j’ai publié avant le début de ce siècle j’ai plus ou moins mélangé hypothèse et induction" (p. 271). Alors que la première, en partant de l’expérience, contribue à la conclusion finale de l’enquête, l’induction, qui y retourne, ne fait qu’évaluer ce contenu. On remarquera que la place ainsi réservée à l’induction n’est pas du tout celle qu’on lui accorde d’ordinaire et qui veut que l’observation de différents cas isolés nous "soufflerait" la bonne explication. Ici, elle se borne à tester l’hypothèse, pour la valider ou l’invalider. Comme la déduction, elle augmente non pas nos connaissances, mais la confiance qu’on peut leur accorder. Les nouveaux développements sur la vraisemblance des tests empiriques conduisent à réviser toute la conception des probabilités, mais les effets de la confusion initiale s’étendent à la question des fondements. Sans disparaître, le besoin de fonder l’induction passe au second plan.

Pour l’épistémologue qui veut expliquer l’efficacité de la connaissance, l’abduction, c’est-à-dire la découverte de la bonne hypothèse, est une étape décisive et originale (p. 117). Ainsi, la démarche qui a conduit Kepler à rendre compte des mouvements célestes non plus par des cercles, mais par des ellipses ne relève ni de la déduction ni de l’induction. Dans cette dernière période, on assiste donc à une montée en puissance de l’abduction, qui a pour effet de distendre les liens entre logique et épistémologie. L’appartenance de l’abduction à la logique va en effet si peu de soi qu’il n’y a toujours pas de logique abductive. Alors que l’abduction a parfois été appelée inférence à la meilleure explication, il n’est pas sûr que la découverte de la bonne explication soit bien une inférence, au même titre que l’induction ou la déduction et on aurait plutôt tendance à l’attribuer au génie, à ce que les Allemands appellent Einsicht et les Anglais Insight. Peirce ira d’ailleurs dans ce sens quand il estimera que ce qui explique le succès de la connaissance, ce n’est pas tant la raison que l’instinct. L’esprit humain est le produit d’une sélection naturelle, ce qui fait qu’il est comme "accordé à la vérité des choses" (p. 274).

De cette brève présentation, il importe de souligner à quel point elle donne une image appauvrie et déformée de l’ouvrage. À regret, des pans entiers ont dû être passés sous silence. Ainsi, rien n’a été dit du rapport complexe de Peirce à la psychologie. La distinction établie entre le penser (l’acte, fait biologique contingent) et la Pensée (fait réel, objectif, idéal, la proposition des logiciens) lui permet de condamner le psychologisme, qui méconnaît cette distinction, tout en développant une théorie psychologique à laquelle l’auteur consacre de nombreuses pages. Rien n’a été dit non plus de la métaphysique scientifique décrite dans la troisième partie de l’ouvrage. Il en va de même encore de la sémiotique, à laquelle le nom de Peirce reste étroitement attaché, et qui est un peu à l’épistémologie ce que la philosophie du langage est à la philosophie de l’esprit. Un des grands mérites de l’ouvrage tient à la volonté de respecter les grands équilibres, et les tensions, à l’œuvre chez Peirce, et de faire sentir l’imbrication des différents thèmes. Le lecteur peut ainsi mesurer la distance entre ce qu’on retient d’ordinaire de Peirce et ce qu’on trouve dans ses écrits. À cet égard, l’ouvrage s’avère très précieux et même celui qui connaît déjà Peirce y trouvera à apprendre.

Cette qualité a toutefois un coût. La richesse de l’information s’obtient parfois au détriment de l’intelligibilité. À vouloir trop couvrir, il arrive que le fil directeur soit perdu de vue pour des considérations adventices, portant de surcroît sur des sujets souvent ardus, où il est facile de s’égarer. Sur cette épistémologie qui sert de sous-titre à l’ouvrage, le lecteur reste un peu sur sa faim. Au fur et à mesure, les différents matériaux de cette discipline à inventer sont mis en place, mais il aurait aimé les voir rassemblés, de façon à pouvoir se faire une idée de cette discipline en cours de constitution.

Ces quelques réserves ne doivent pas masquer l’intérêt considérable d’un ouvrage qui est le fruit d’une longue fréquentation de l’œuvre de Peirce. Les livres sur cet auteur ne sont pas si nombreux et celui-ci est incontestablement appelé à rendre de nombreux services. S’il n’est pas destiné à ceux qui ignoreraient tout du pragmatisme, il n’en constitue pas moins une introduction à une œuvre qu’on gagne à fréquenter. Pour quiconque veut travailler Peirce, c’est une véritable mine, à condition bien sûr de se donner la peine de chercher ces pépites dont parlait Russell.

Auteur: Bourdeau Michel

Info: A propos de : Jean-Marie Chevalier, "Peirce ou l’invention de l’épistémologie", Paris, Vrin, 2022, 313 p., 29 €. 20 octobre 2022

[ transdisciplinarité ] [ orthogonalité subjectif-objectif ] [ rationalismes instanciés ] [ abstractions ] [ vie des idées ] [ sociologie politique ]

 

Commentaires: 0

Ajouté à la BD par miguel

homme-machine

Comment l'IA comprend des trucs que personne ne lui lui a appris

Les chercheurs peinent à comprendre comment les modèles d'Intelligence artificielle, formés pour perroquetter les textes sur Internet, peuvent effectuer des tâches avancées comme coder, jouer à des jeux ou essayer de rompre un mariage.

Personne ne sait encore comment ChatGPT et ses cousins ​​de l'intelligence artificielle vont transformer le monde, en partie parce que personne ne sait vraiment ce qui se passe à l'intérieur. Certaines des capacités de ces systèmes vont bien au-delà de ce pour quoi ils ont été formés, et même leurs inventeurs ne savent pas pourquoi. Un nombre croissant de tests suggèrent que ces systèmes d'IA développent des modèles internes du monde réel, tout comme notre propre cerveau le fait, bien que la technique des machines soit différente.

"Tout ce que nous voulons faire avec ces systèmes pour les rendre meilleurs ou plus sûrs ou quelque chose comme ça me semble une chose ridicule à demander  si nous ne comprenons pas comment ils fonctionnent", déclare Ellie Pavlick de l'Université Brown,  un des chercheurs travaillant à combler ce vide explicatif.

À un certain niveau, elle et ses collègues comprennent parfaitement le GPT (abréviation de generative pretrained transformer) et d'autres grands modèles de langage, ou LLM. Des modèles qui reposent sur un système d'apprentissage automatique appelé réseau de neurones. De tels réseaux ont une structure vaguement calquée sur les neurones connectés du cerveau humain. Le code de ces programmes est relativement simple et ne remplit que quelques pages. Il met en place un algorithme d'autocorrection, qui choisit le mot le plus susceptible de compléter un passage sur la base d'une analyse statistique laborieuse de centaines de gigaoctets de texte Internet. D'autres algorithmes auto-apprenants supplémentaire garantissant que le système présente ses résultats sous forme de dialogue. En ce sens, il ne fait que régurgiter ce qu'il a appris, c'est un "perroquet stochastique", selon les mots d'Emily Bender, linguiste à l'Université de Washington. Mais les LLM ont également réussi à réussir l'examen pour devenir avocat, à expliquer le boson de Higgs en pentamètre iambique (forme de poésie contrainte) ou à tenter de rompre le mariage d'un utilisateurs. Peu de gens s'attendaient à ce qu'un algorithme d'autocorrection assez simple acquière des capacités aussi larges.

Le fait que GPT et d'autres systèmes d'IA effectuent des tâches pour lesquelles ils n'ont pas été formés, leur donnant des "capacités émergentes", a surpris même les chercheurs qui étaient généralement sceptiques quant au battage médiatique sur les LLM. "Je ne sais pas comment ils le font ou s'ils pourraient le faire plus généralement comme le font les humains, mais tout ça mes au défi mes pensées sur le sujet", déclare Melanie Mitchell, chercheuse en IA à l'Institut Santa Fe.

"C'est certainement bien plus qu'un perroquet stochastique, qui auto-construit sans aucun doute une certaine représentation du monde, bien que je ne pense pas que ce soit  vraiment de la façon dont les humains construisent un modèle de monde interne", déclare Yoshua Bengio, chercheur en intelligence artificielle à l'université de Montréal.

Lors d'une conférence à l'Université de New York en mars, le philosophe Raphaël Millière de l'Université de Columbia a offert un autre exemple à couper le souffle de ce que les LLM peuvent faire. Les modèles avaient déjà démontré leur capacité à écrire du code informatique, ce qui est impressionnant mais pas trop surprenant car il y a tellement de code à imiter sur Internet. Millière est allé plus loin en montrant que le GPT peut aussi réaliser du code. Le philosophe a tapé un programme pour calculer le 83e nombre de la suite de Fibonacci. "Il s'agit d'un raisonnement en plusieurs étapes d'un très haut niveau", explique-t-il. Et le robot a réussi. Cependant, lorsque Millière a demandé directement le 83e nombre de Fibonacci, GPT s'est trompé, ce qui suggère que le système ne se contentait pas de répéter ce qui se disait sur l'internet. Ce qui suggère que le système ne se contente pas de répéter ce qui se dit sur Internet, mais qu'il effectue ses propres calculs pour parvenir à la bonne réponse.

Bien qu'un LLM tourne sur un ordinateur, il n'en n'est pas un lui-même. Il lui manque des éléments de calcul essentiels, comme sa propre mémoire vive. Reconnaissant tacitement que GPT seul ne devrait pas être capable d'exécuter du code, son inventeur, la société technologique OpenAI, a depuis introduit un plug-in spécialisé -  outil que ChatGPT peut utiliser pour répondre à une requête - qui remédie à cela. Mais ce plug-in n'a pas été utilisé dans la démonstration de Millière. Au lieu de cela, ce dernier suppose plutôt que la machine a improvisé une mémoire en exploitant ses mécanismes d'interprétation des mots en fonction de leur contexte -  situation similaire à la façon dont la nature réaffecte des capacités existantes à de nouvelles fonctions.

Cette capacité impromptue démontre que les LLM développent une complexité interne qui va bien au-delà d'une analyse statistique superficielle. Les chercheurs constatent que ces systèmes semblent parvenir à une véritable compréhension de ce qu'ils ont appris. Dans une étude présentée la semaine dernière à la Conférence internationale sur les représentations de l'apprentissage (ICLR), le doctorant Kenneth Li de l'Université de Harvard et ses collègues chercheurs en intelligence artificielle, Aspen K. Hopkins du Massachusetts Institute of Technology, David Bau de la Northeastern University et Fernanda Viégas , Hanspeter Pfister et Martin Wattenberg, tous à Harvard, ont créé leur propre copie plus petite du réseau neuronal GPT afin de pouvoir étudier son fonctionnement interne. Ils l'ont entraîné sur des millions de matchs du jeu de société Othello en alimentant de longues séquences de mouvements sous forme de texte. Leur modèle est devenu un joueur presque parfait.

Pour étudier comment le réseau de neurones encodait les informations, ils ont adopté une technique que Bengio et Guillaume Alain, également de l'Université de Montréal, ont imaginée en 2016. Ils ont créé un réseau de "sondes" miniatures pour analyser le réseau principal couche par couche. Li compare cette approche aux méthodes des neurosciences. "C'est comme lorsque nous plaçons une sonde électrique dans le cerveau humain", dit-il. Dans le cas de l'IA, la sonde a montré que son "activité neuronale" correspondait à la représentation d'un plateau de jeu d'Othello, bien que sous une forme alambiquée. Pour confirmer ce résultat, les chercheurs ont inversé la sonde afin d'implanter des informations dans le réseau, par exemple en remplaçant l'un des marqueurs noirs du jeu par un marqueur blanc. "En fait, nous piratons le cerveau de ces modèles de langage", explique Li. Le réseau a ajusté ses mouvements en conséquence. Les chercheurs ont conclu qu'il jouait à Othello à peu près comme un humain : en gardant un plateau de jeu dans son "esprit" et en utilisant ce modèle pour évaluer les mouvements. Li pense que le système apprend cette compétence parce qu'il s'agit de la description la plus simple et efficace de ses données pour l'apprentissage. "Si l'on vous donne un grand nombre de scripts de jeu, essayer de comprendre la règle qui les sous-tend est le meilleur moyen de les comprimer", ajoute-t-il.

Cette capacité à déduire la structure du monde extérieur ne se limite pas à de simples mouvements de jeu ; il apparaît également dans le dialogue. Belinda Li (aucun lien avec Kenneth Li), Maxwell Nye et Jacob Andreas, tous au MIT, ont étudié des réseaux qui jouaient à un jeu d'aventure textuel. Ils ont introduit des phrases telles que "La clé est dans le coeur du trésor", suivies de "Tu prends la clé". À l'aide d'une sonde, ils ont constaté que les réseaux encodaient en eux-mêmes des variables correspondant à "coeur" et "Tu", chacune avec la propriété de posséder ou non une clé, et mettaient à jour ces variables phrase par phrase. Le système n'a aucun moyen indépendant de savoir ce qu'est une boîte ou une clé, mais il a acquis les concepts dont il avait besoin pour cette tâche."

"Une représentation de cette situation est donc enfouie dans le modèle", explique Belinda Li.

Les chercheurs s'émerveillent de voir à quel point les LLM sont capables d'apprendre du texte. Par exemple, Pavlick et sa doctorante d'alors, l'étudiante Roma Patel, ont découvert que ces réseaux absorbent les descriptions de couleur du texte Internet et construisent des représentations internes de la couleur. Lorsqu'ils voient le mot "rouge", ils le traitent non seulement comme un symbole abstrait, mais comme un concept qui a une certaine relation avec le marron, le cramoisi, le fuchsia, la rouille, etc. Démontrer cela fut quelque peu délicat. Au lieu d'insérer une sonde dans un réseau, les chercheurs ont étudié sa réponse à une série d'invites textuelles. Pour vérifier si le systhème ne faisait pas simplement écho à des relations de couleur tirées de références en ligne, ils ont essayé de le désorienter en lui disant que le rouge est en fait du vert - comme dans la vieille expérience de pensée philosophique où le rouge d'une personne correspond au vert d'une autre. Plutôt que répéter une réponse incorrecte, les évaluations de couleur du système ont évolué de manière appropriée afin de maintenir les relations correctes.

Reprenant l'idée que pour remplir sa fonction d'autocorrection, le système recherche la logique sous-jacente de ses données d'apprentissage, le chercheur en apprentissage automatique Sébastien Bubeck de Microsoft Research suggère que plus la gamme de données est large, plus les règles du système faire émerger sont générales. "Peut-être que nous nous constatons un tel bond en avant parce que nous avons atteint une diversité de données suffisamment importante pour que le seul principe sous-jacent à toutes ces données qui demeure est que des êtres intelligents les ont produites... Ainsi la seule façon pour le modèle d'expliquer toutes ces données est de devenir intelligent lui-même".

En plus d'extraire le sens sous-jacent du langage, les LLM sont capables d'apprendre en temps réel. Dans le domaine de l'IA, le terme "apprentissage" est généralement réservé au processus informatique intensif dans lequel les développeurs exposent le réseau neuronal à des gigaoctets de données et ajustent petit à petit ses connexions internes. Lorsque vous tapez une requête dans ChatGPT, le réseau devrait être en quelque sorte figé et, contrairement à l'homme, ne devrait pas continuer à apprendre. Il fut donc surprenant de constater que les LLM apprennent effectivement à partir des invites de leurs utilisateurs, une capacité connue sous le nom d'"apprentissage en contexte". "Il s'agit d'un type d'apprentissage différent dont on ne soupçonnait pas l'existence auparavant", explique Ben Goertzel, fondateur de la société d'IA SingularityNET.

Un exemple de la façon dont un LLM apprend vient de la façon dont les humains interagissent avec les chatbots tels que ChatGPT. Vous pouvez donner au système des exemples de la façon dont vous voulez qu'il réponde, et il obéira. Ses sorties sont déterminées par les derniers milliers de mots qu'il a vus. Ce qu'il fait, étant donné ces mots, est prescrit par ses connexions internes fixes - mais la séquence de mots offre néanmoins une certaine adaptabilité. Certaines personnes utilisent le jailbreak à des fins sommaires, mais d'autres l'utilisent pour obtenir des réponses plus créatives. "Il répondra mieux aux questions scientifiques, je dirais, si vous posez directement la question, sans invite spéciale de jailbreak, explique William Hahn, codirecteur du laboratoire de perception de la machine et de robotique cognitive à la Florida Atlantic University. "Sans il sera un meilleur universitaire." (Comme son nom l'indique une invite jailbreak -prison cassée-, invite à  moins délimiter-verrouiller les fonctions de recherche et donc à les ouvrir, avec les risques que ça implique) .

Un autre type d'apprentissage en contexte se produit via l'incitation à la "chaîne de pensée", ce qui signifie qu'on demande au réseau d'épeler chaque étape de son raisonnement - manière de faire qui permet de mieux résoudre les problèmes de logique ou d'arithmétique en passant par plusieurs étapes. (Ce qui rend l'exemple de Millière si surprenant  puisque le réseau a trouvé le nombre de Fibonacci sans un tel encadrement.)

En 2022, une équipe de Google Research et de l'École polytechnique fédérale de Zurich - Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov et Max Vladymyrov - a montré que l'apprentissage en contexte suit la même procédure de calcul de base que l'apprentissage standard, connue sous le nom de descente de gradient". 

Cette procédure n'était pas programmée ; le système l'a découvert sans aide. "C'est probablement une compétence acquise", déclare Blaise Agüera y Arcas, vice-président de Google Research. De fait il pense que les LLM peuvent avoir d'autres capacités latentes que personne n'a encore découvertes. "Chaque fois que nous testons une nouvelle capacité que nous pouvons quantifier, nous la trouvons", dit-il.

Bien que les LLM aient suffisamment d'angles morts et autres défauts pour ne pas être qualifiés d'intelligence générale artificielle, ou AGI - terme désignant une machine qui atteint l'ingéniosité du cerveau animal - ces capacités émergentes suggèrent à certains chercheurs que les entreprises technologiques sont plus proches de l'AGI que même les optimistes ne l'avaient deviné. "Ce sont des preuves indirectes que nous en sommes probablement pas si loin", a déclaré Goertzel en mars lors d'une conférence sur le deep learning à la Florida Atlantic University. Les plug-ins d'OpenAI ont donné à ChatGPT une architecture modulaire un peu comme celle du cerveau humain. "La combinaison de GPT-4 [la dernière version du LLM qui alimente ChatGPT] avec divers plug-ins pourrait être une voie vers une spécialisation des fonctions semblable à celle de l'homme", déclare Anna Ivanova, chercheuse au M.I.T.

Dans le même temps, les chercheurs s'inquiètent de voir leur capacité à étudier ces systèmes s'amenuiser. OpenAI n'a pas divulgué les détails de la conception et de l'entraînement de GPT-4, en partie du à la concurrence avec Google et d'autres entreprises, sans parler des autres pays. "Il y aura probablement moins de recherche ouverte de la part de l'industrie, et les choses seront plus cloisonnées et organisées autour de la construction de produits", déclare Dan Roberts, physicien théoricien au M.I.T., qui applique les techniques de sa profession à la compréhension de l'IA.

Ce manque de transparence ne nuit pas seulement aux chercheurs, il entrave également les efforts qui visent à comprendre les répercussions sociales de l'adoption précipitée de la technologie de l'IA. "La transparence de ces modèles est la chose la plus importante pour garantir la sécurité", affirme M. Mitchell.

Auteur: Musser Georges

Info: https://www.scientificamerican.com,  11 mai 2023. *algorithme d'optimisation utilisé dans l'apprentissage automatique et les problèmes d'optimisation. Il vise à minimiser ou à maximiser une fonction en ajustant ses paramètres de manière itérative. L'algorithme part des valeurs initiales des paramètres et calcule le gradient de la fonction au point actuel. Les paramètres sont ensuite mis à jour dans la direction du gradient négatif (pour la minimisation) ou positif (pour la maximisation), multiplié par un taux d'apprentissage. Ce processus est répété jusqu'à ce qu'un critère d'arrêt soit rempli. La descente de gradient est largement utilisée dans la formation des modèles d'apprentissage automatique pour trouver les valeurs optimales des paramètres qui minimisent la différence entre les résultats prédits et les résultats réels. Trad et adaptation Mg

[ singularité technologique ] [ versatilité sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel