Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 174
Temps de recherche: 0.0547s

prospective affirmée

Jouant avec 10 coups d’avance, la Chine est le véritable maître du jeu, la Russie est d’ores et déjà consciente du risque de se faire vassaliser par son puissant voisin.

Ce qui conditionne la géopolitique du présent comme des prochaines années, c’est la lutte froide-chaude entre les USA et la Chine + l’accès à l’énergie, à l’eau et à certaines matières premières. Tous les autres conflits sont à la périphérie de ce duel.

LE PASSE-FUTUR

Le passé cosmique étant en partie l’avenir de la terre, il est relativement confortable d’anticiper certains paramètres.

PARAMÈTRE 1 : Le programme des Gestionnaires de la planète Terre se poursuit suivant leur Plan

Les administrateurs non humains terrestres interviennent sur le ‘’jardin’’ comme ils le font depuis des éons : physiquement, génétiquement, et bio-énergétiquement. Entre autres choses, ils gèrent les avancées scientifiques de l’humanité terrestre, les accélérant et les freinant selon les cas.

PARAMÈTRE 2 : Les développements scientifiques et technologiques sont les véritables révolutions.

Ils impactent directement la politique, la sociologie, l’économie et la guerre.

Les principales innovations viendront des biotechnologies et des technologies d’assemblage à l’échelle atomique. Ces dernières vont redécouvrir des matériaux ‘’exotiques’’ : hyper-résistance, inaltérabilité, autoassemblage, supra-conductivité électrique, production endogène d’énergie. A base de carbone, de silicium puis par assemblage avec d’autres éléments. Un immense champ de recherches s’ouvrira…

De nouveaux paradigmes scientifiques vont en émerger, avec des développements sur des palettes de plus en plus diversifiées. Ils vont à terme changer la donne sur la production et le stockage d’énergie, le transport terrestre et spatial, et l’armement. La géopolitique en sera bouleversée, avec la fin de certaines raretés et le développement de l’autonomie énergétique à toutes les échelles.

En sus, la mise en évidence de l’état ‘’epsilon’’ de la matière va ouvrir une nouvelle direction scientifique dont on n’a pas idée en 2022. Entre autres choses, à terme, il deviendra très aisé de contrôler l’esprit humain ordinaire, sans utiliser les médias (presse, télévision, internet) inféodés et contrôlés par les leaders Industriels et politiques humains à l’époque où ces lignes sont écrites.

PARAMÈTRE 3 : La démographie du présent (2022) anticipe de manière très sûre le 21ème siècle.

La stabilisation de la population humaine, sa maîtrise, voire sa réduction s’avère une donnée incontournable bien que largement tabou pour le commun au début du siècle. Elle peut s’opérer contrainte, par crises, ou bien gérée paisiblement dans la durée.

Ici, ce sera probablement par crises, espérons qu’elles seront les moins radicales possibles.

PARAMÈTRE 4 : Résistance et atout ‘’caché’’ des USA face à la Chine

Il serait extrêmement étonnant que les services de renseignements russes et chinois ne soient pas informés de l’AVANCE TECHNOLOGIQUE considérable qu’ont pris les USA sur le reste de la planète, par la rétroconception de technologies exotiques, assistés par certains exogènes eux-mêmes.

Cependant, cette avance a créé une sorte d’élite planétaire qui s’est rapidement et largement affranchie du système ‘’démocratique’’ et de l’état américain lui-même. Ses membres sont actuellement issus de toutes origines terrestres, l’hyper compétence dans un domaine de pointe étant le principal critère d’entrée : mathématiques, physique, etc.

La stratégie politique de cette élite est la discrétion maximum, ce qui implique la non-intervention sur le sol de la planète.

A titre d’exemple, si l’on parle vélocité, les missiles hypersoniques de la Russie vont possiblement à mach 20 (environ 7 km seconde - 400 km minute) ou plus, très certainement en utilisant des technologies MHD comme l’explique JP PETIT. Ils accélèrent grosso modo de manière conventionnelle par échange de quantité de mouvement, en s’appuyant sur le milieu ambiant ou / et avec des fusées. Leur limite est celle de la résistance des matériaux aux forces d’accélération.

Les ARV (Alien Reproduction Véhicules) des black programs s’appuient sur des technologies très différentes, beaucoup plus avancées. Ils peuvent circuler dans l’espace, une zone où la matière est très peu dense et où la MHD ne fonctionnerait pas ou très peu, les accélérations seraient très faibles bien que continues.

Les ARV ont franchi le mur de la lumière depuis la fin des années 1970, ils passent de 0 à 20 000 km / heure quasi instantanément et peuvent prendre des virages à angle droit, ils ne sont plus soumis aux lois réputées universelles de la masse et de l’inertie. On ne peut pas les voir car ils vont trop vite. En outre, un second facteur les rend furtifs : ils changent de dimension. Ils peuvent facilement prendre des passagers, ce qui semble plus compliqué avec les technologies russes de missiles hypervéloces.

Ces ARV sont souvent observés comme des OVNIS de forme triangulaire.

Que l’on parle des technologies MHD ou bien des technologies de rétroconception Z .R, il s’agit de produire des champs magnétiques de très haute intensité, mais dans le second cas ils sont beaucoup plus puissants et complexes.

Il est spéculatif de penser que l’élite interviendra dans les conflits traditionnels terrestres, fussent-ils nucléaires. La grande avance technologique ‘’cachée’’ des black programs pourrait modifier la donne dans la compétition Chine – USA, au moins sur le court terme. Idem sur une organisation secrète chinoise, extrêmement puissante financièrement. J’ai eu plusieurs contacts avec certains de leurs membres, ils sont parfaitement conscients de la présence des Gestionnaires non terrestres et de la structure poly dimensionnelle de la Création.

Les Administrateurs non terrestres de la planète font la démonstration constante de leur interventionnisme au niveau du nucléaire civil et militaire, ceci depuis plus de 60 ans. Il nous faut espérer qu’ils gardent la même politique en cas de conflit nucléaire généralisé imminent.

LE FUTUR

J’avais prévenu, je vais faire le contraire de ce que je recommande comme étant raisonnable.

Une seule raison à cela pour le moment, le souvenir d’une vie future en chine, dans 250 ans. Cette réminiscence a commencé spontanément en 2019, lors d’une balade en voiture dans ce que je nomme maintenant ‘’la vallée du souvenir’’. En effet c’est quelque part ici qu’il y a la grotte du souvenir, un lieu secret où certains reviennent chercher la pierre qu’ils y ont déposée lors d’une incarnation passée.

Les Voyages dans le futur et dans le passé m’ont tout de suite étonné. Je dois dire qu’à chaque nouvelle exploration de ce type, je comprends encore moins ce qu’est le temps, à part qu’il est subjectif et dépend à la fois de l’état de conscience et de la position vibratoire où l’on se trouve.

Cette émergence mémorielle a débuté exactement comme celles relatives aux vies passées sur terre. Puis elle apporte son flot de détails de manière continue, comme pour les autres incarnations. Je vais le redire mais oui, moi aussi je n’y comprends rien. Les bidules spiritualeux du genre : ‘’toutes les incarnations se passent en même temps’’ ne me conviennent pas du tout.

Et NON, mon incarnation du 23ème siècle n’est pas un futur possible. Cette théorie me semble plus un jeu de l’esprit qu’autre chose, une simple discussion de salon, mais vous connaissez mon côté tranchant.

A ce moment la Chine est l’état le plus avancé au monde, à presque tous les points de vue. Bien que le monde humain terrestre de 2370 soit plus multipolaire qu’en 2022, il reste rassemblé autour d’un point central économique, scientifique et culturel : la Chine.

Mauvaise nouvelle pour les égocentristes des démocraties à l’occidentale : la Chine n’est pas une démocratie suivant leur modèle. En deux mots, elle a géré la question des populations, des croyances religieuses scélérates et violentes, de la délinquance et de la pauvreté. Depuis environ 250 ans, c’est le centre du monde terrestre. Je suis l’un d’entre eux, chinois par ma mère, occidental par mon père qui est natif d’un pays européen nordique, mais je ressemble parfaitement à un chinois, enfin si l’on en croit mon souci de conformité des jeunes années de ce moi du futur. Lui et moi sommes la même personne avec deux costumes différents.

Avant la seconde moitié de ce 23ème siècle, le crédit social a évolué vers une forme de reconnaissance entièrement basée sur l’utilité de l’individu envers la collectivité. Autour de moi, personne ne conteste ce système qui nous parait à la fois juste et logique.

Il n’y a pas eu de guerre nucléaire généralisée, juste des explosions d’armes nucléaires tactiques de puissance "modérée", dans des conflits dont les enjeux étaient l’énergie, au 21ème et au 22ème siècle. Je ne m’intéresse pas plus à l’histoire du 21ème siècle qu’une personne de 2030 se soucie de ce qui s’est passé au 17ème siècle, ici ou là. C’est juste de la culture générale non impliquante.

Comme les souvenirs reviennent régulièrement, la scène s’étoffe de plus en plus. Ma vie personnelle d’alors, je pense que chacun s’en fiche, alors parlons de mon action principale : je vais participer à la préparation de l’intégration de l’humanité dans le groupe cosmique local.

Non, la "révélation" généralisée ne semble pas être pour demain.

Auteur: Auburn Marc

Info: Post FB du 21 août 2022 - Voyage, mémoire et géopolitique du 21ème siècle

[ voyage astral ] [ futurologie ] [ ufologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

théorie du tout

De l'observateur à l'acteur

Les découvertes de la physique quantique ont initié une réflexion importante sur la place de l'observateur et son lien avec la conscience. Jusqu'alors, ce que nous savions de la physique n'avait jamais conduit à ce questionnement. En effet, à notre échelle, les objets classiques se comportent de manière régulière et prédictive, nous donnant par exemple le droit de penser que si nous quittons une pièce, les objets qu'elle contient seront toujours là à notre retour. C'est comme si les choses continuaient, que nous les observions ou non. L'influence de l'observation est donc susceptible du nous échapper.

Par contre, au niveau quantique, on ne peut rien dire de tel. Quand on n'observe pas, il y a méconnaissance ; alors, plusieurs réalités sont possibles. C'est ce qu'on appelle la superposition quantique. À partir du moment où l'on observe, la superposition s'effondre, ne laissant qu'une seule réalité.

Quel est le point commun entre les deux échelles ? La conscience.

L'observateur, au sens métaphysique du terme - le seul qui soit ici valide puisque la conscience est première - a une influence sur l'avancement de la complexité et de la conscience dans l'univers. En retour, l'univers a une influence sur lui.  Dès que la conscience de l'observateur change, il n'observe plus son environnement de la même manière, ce qui influence la conscience avec laquelle il perçoit. Ainsi, son interprétation est directement liée à sa conscience au moment où il observe.

Chaque observateur étant ainsi complètement impliqué dans la construction de la réalité, il serait sans doute plus juste de parler d'acteurs. Les joueurs sont finalement la condition même d'existence de l'aire de jeu, grâce à leur conscience.

Le joueur et ce qui se passe dans l'univers ne font qu'un

Selon la théorie des champs unifiés, la conscience est une rétroaction entre notre monde intérieur et notre monde extérieur.

C'est à partir de la structure du double tore que j'ai commencé à comprendre pourquoi et comment la conscience émerge par rétroaction.

"Pour être conscient de soi, il faut savoir que l'on existe. Cela nécessite une rétroaction. La structure du double tore permet cette rétroaction entre ce qui vient de l'extérieur et ce qui retourne à l'intérieur, informant le vide, puis retournant à l'extérieur. Et lorsqu'il retourne à l'extérieur, le vide nous informe du résultat de l'information qui y est présente. Il s'agit d'un échange entre notre compréhension interne et l'expérience de l'univers, et la relation entre toutes les compréhensions rassemblées dans le vide affecte la nôtre. Nous ne créons donc pas notre réalité, nous la co-créons avec tous les autres." 

L'univers utilise une boucle de rétroaction pour s'observer à toutes les échelles. Il s'observe en fait à travers tous les êtres conscients qui évoluent en son sein. Plus précisément, c'est le niveau fondamental de ce que nous sommes qui rayonne et s'effondre perpétuellement sur lui-même, dans une boucle de rétroaction infinie.

Ainsi, nos observations ne sont pas les nôtres, car nous n'observons pas l'univers d'un point de vue extérieur. Nous faisons partie de son propre processus de prise de conscience. Et nous pouvons utiliser ce processus consciemment pour diriger la création et tracer le chemin que nous souhaitons emprunter, en co-création avec d'autres.

Pour cela, nous utilisons l'énergie.

L'énergie suit la conscience.

" Nous baignons dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie est le vide, c'est-à-dire l'espace qui nous entoure. Cet espace n'est cependant pas vide au sens habituel du terme mais plein d'énergie, une énergie qui relie absolument tout. " [10]

Je présente ici la relation entre le vide, l'espace et l'énergie. Du point de vue de la physique, le vide n'existe pas.

Du point de vue de la métaphysique, seules la conscience et l'énergie existent. Ce que l'on appelle " espace " est simplement de l'énergie et des potentiels inexplorés (bien que du point de vue mental, l'espace existe et est perçu comme vide).

L'espace n'est rien d'autre que de l'énergie

Je m'intéresse au vide et surtout à l'énergie qu'il contient car c'est pour moi la source de la matière. Et je découvre que le vide a une structure géométrique, celle de la fleur de vie en 3D.

Cette structure est infinie et couvre ce que l'on appelle communément "l'espace". L'espace relie toutes les échelles, du niveau quantique - où les équations prédisent qu'il y a une énergie infinie en tout point - au niveau cosmologique. Toute l'énergie est déjà là, même si nous n'en sommes pas conscients.

La physique standard laisse volontairement de côté la grande majorité de cette énergie en utilisant un processus de renormalisation, qui attribue une valeur finie à l'énergie du vide quantique.

"(...) Des infinités absurdes à première vue apparaissent dans les autres théories partielles, mais dans tous les cas ces infinités peuvent être annulées par un processus appelé " renormalisation ". Bien que cette technique soit relativement douteuse sur le plan mathématique, elle semble fonctionner dans la pratique et a été appliquée à ces théories pour faire des prédictions qui correspondent aux observations avec un degré de précision extraordinaire. La renormalisation présente toutefois un sérieux inconvénient du point de vue de la recherche d'une théorie complète, car elle signifie que les valeurs réelles des masses et des intensités des forces ne peuvent pas être prédites par la théorie, mais doivent être choisies pour s'adapter aux observations. ""

Stephen Hawking énonce ici ce qui m'a permis de trouver une théorie complète, prenant en compte l'infini sans avoir recours à la renormalisation. J'ai ainsi réussi à prédire la valeur réelle de la masse du proton et des trous noirs en général...

L'énergie est partout équivalente

" Les objets physiques ne sont pas dans l'espace, mais ces objets sont une extension de l'espace. De ce point de vue, le concept d'espace perd toute signification.**

L'espace - ou l'énergie - est une fluctuation à la source de notre réalité. Ainsi, au lieu de nous voir comme un corps, par exemple, nous pouvons nous voir comme étant constitués de billions de cellules. Chacune de ces cellules est composée de milliards d'atomes. À l'intérieur de chacun de ces atomes, des protons circulent les uns autour des autres à la vitesse de la lumière. Ils sont chacun constitués de 1055 minuscules paquets d'énergie, appelés unités sphériques de Planck (PSU) ou voxels par moi-même. Ces voxels constituent l'unité fondamentale de la fabrique de l'espace-temps, assemblés géométriquement selon la structure infinie de la fleur de vie en 3D.

Il n'y a pas d'espace entre les particules, il n'y a que de l'énergie. D'ailleurs si l'on prend en compte l'énergie contenue dans le proton, on peut enfin expliquer la différence de densité d'énergie entre le niveau quantique et le niveau cosmologique. En bref l'énergie est égale, équivalente partout.

Mais si on considère que l'espace n'existe pas, que deviennent les concepts de temps et de dimension ?

Sans espace, qu'est-ce que le temps ?

Depuis la théorie de la relativité restreinte (Einstein, 1905), le concept d'espace est étroitement associé à celui de temps. Ces notions sont devenues inséparables et s'influencent réciproquement. Cependant le temps est simplement un concept humain. Il vaut mieux parler d'espace-mémoire. Ici c'est la mémoire qui est encodée sur le cadre de l'espace, nous donnant la notion du temps qui passe.

Mais qu'il s'agisse de mémoire ou de temps, sans espace, il n'y a pas d'espace, pourrait-on dire à juste titre.  Alors que la mémoire est simplement comme des paquets d'énergie et de conscience qui deviennent disponibles de notre point de vue humain.

Cela correspond à la perspective métaphysique selon laquelle toute manifestation d'énergie est un événement, sans corrélation avec le temps et l'espace, mais en aucun cas sans corrélation avec la conscience. Le temps, comme l'espace, n'existe nulle part ailleurs que dans le mental. Celui-ci peut en percevoir la linéarité et la séparation, là où tout n'est que résonance dans l'instant présent.

Sans espace, qu'est-ce qu'une dimension ?

Une dimension est relative à une mesure. Cependant je considère qu'une dimension se réfère à l'échelle ou à la taille d'une structure plutôt qu'à une orientation dans l'espace. Ainsi il existe un nombre infini de dimensions scalaires, la plus petite et la plus pertinente pour définir notre relation à l'univers étant le voxel (sphère de Planck). 1055 voxels - la masse de l'univers - tiennent dans un seul proton. Comment est-ce possible ? Parce qu'il s'agit de la masse holographique, fondée sur l'information. L'univers est fractal. La nature holo-fractographique de l'univers signifie que tous les protons communiquent entre eux.

Ainsi l'énergie est communication, uniquement.

En pratique l'échelle à laquelle nous observons les objets en physique détermine réellement le niveau d'énergie qu'on peut observer

Ainsi si nous étirons une PSU (voxel) à l'échelle d'un proton, le proton lui-même s'étirera jusqu'à atteindre la taille d'une sphère dont le diamètre correspondrait à la distance entre notre soleil et Alpha du Centaure.

Ou encore :  depuis la Station spatiale internationale, on peut observer l'océan et voir une surface bleue et lisse. Mais si on s'approche suffisamment, on verra des vagues de 15 mètres d'une énergie folle. C'est ce qui se passe avec les fluctuations électromagnétiques à l'échelle quantique. Mais nous ne pouvons pas le voir

Auteur: Haramein Nassim

Info: *Hawking Stephen, A Brief History of Time, Ed.Flammarion, 2018, p.191, free translation **EINSTEIN Albert, The Connected Universe [vidéo], 2015

[ science spéculative ] [ mondes consensuels ] [ solipsismes grégaires ] [ vacuité apparente ] [ programme de langlands ]

 

Commentaires: 0

Ajouté à la BD par miguel

philosophie

AP : Il y a une métaphore qui revient de manière récurrente dans votre ouvrage, qui est celle de l’ampoule et de la lumière. Cette métaphore rappelle vraiment celle de Bergson que je me permets de citer : "Un vêtement est solidaire du clou auquel il est accroché ; il tombe si l’on arrache le clou ; il oscille si le clou remue ; il se troue, il se déchire si la tête du clou est trop pointue ; il ne s’ensuit pas que chaque détail du clou corresponde à un détail du vêtement, ni que le clou soit l’équivalent du vêtement ; encore moins s’ensuit-il que le clou et le vêtement soient la même chose. Ainsi la conscience est incontestablement accrochée à un cerveau mais il ne résulte nullement de là que le cerveau dessine tout le détail de la conscience, ni que la conscience soit une fonction du cerveau."*

ER : Oui, je pense que j’ai cité exactement ceci dans mon livre, ou alors, en réduisant le livre, il est possible que cette référence à Bergson ait sauté. Plusieurs métaphores sont envisageables, mais le cœur du problème est celui du cerveau conscient. Les neuroscientifiques posent (je crois) mal le problème, aussi bien du côté des athées que des spiritualistes puisque, pour faire simple, on est dans la seule alternative suivante. Soit la conscience cérébrale est matérielle et immanente : c’est le point de vue matérialiste. Soit la conscience est un phénomène transcendant et immatériel : c’est le point de vue spiritualiste. Je suis intermédiaire entre les deux. En effet, je prends d’un côté l’immanence (qui implique la possibilité d’une approche scientifique du fait mental), et de l’autre je prends le côté immatériel. J’appelais d’ailleurs à un moment ma théorie "im-im", "immatériel-immanent". Je fais de la conscience un phénomène à la fois immatériel – en un sens précis que j’indiquerai – mais néanmoins immanent. Je ne fais appel à aucune instance surnaturelle pour la conscience. Mon hypothèse "im-im" me place en position intermédiaire entre les deux extrêmes du matérialisme et du spiritualisme.

Sur le fond, l’histoire de la lampe est avant tout une manière de dénoncer certaines "bêtises" que l’on entend dans les neurosciences. Par exemple, on entend souvent que la conscience est le cerveau en marche, qu’elle est au sens de l’identité le cerveau. Changeux dit des choses de ce genre-là, et il n’est pas le seul. Je dis que c’est aussi stupide que si l’on disait que la lumière est la lampe qui la crée. Certes, je pourrais m’exprimer plus diplomatiquement…

AP : Vous développez donc le même argument que Bergson.

ER : Absolument ; mais jusqu’à un certain point seulement. C’est le même argument, à ceci près que la lampe me permet d’aller un peu plus loin. Voyons cela. La matière de la lampe n’est pas différente de la matière qu’on trouve ailleurs. Son secret ne réside pas dans une matière particulière qui serait la sienne, et qui expliquerait sa capacité à émettre de la lumière. Cette capacité est vient au contraire du fait que la lampe réalise les conditions d’émission d’actualisation d’un potentiel inhérent à toute matière, celui d’émettre de la lumière. Je comprends de même que le cerveau conscient est une structure qui réalise les conditions d’émission ou d’actualisation d’une potentialité qui (dans mon hypothèse) est latente dans la matière normale. Latente et universelle. Cette potentialité est celle de l’apparition de la conscience ou, plus généralement, du psychisme (qui englobe l’inconscient et le pré-conscient). Donc, ma métaphore suggère une certaine façon de comprendre le mystère du cerveau conscient.

AP : Oui, mais au risque d’insister sur cette métaphore, je dois dire que je ne l’ai jamais comprise, elle m’a toujours paru fonctionner à vide.

ER : Elle revient à dire qu’une corrélation n’est pas une identité.

AP : Cela, je le comprends très bien. Mais ce que je ne comprends pas, c’est la pertinence de la métaphore : Bergson et vous-même voulez montrer qu’il y a deux ordres de réalité différents : un ordre matériel et un ordre de l’esprit, sachant que l’ordre matériel donne naissance à l’ordre de l’esprit sans que ce dernier ne soit identique à l’ordre matériel. Cela, je le comprends fort bien. Chez vous, l’ampoule donne naissance à la possibilité énergétique de la lumière, mais l’ampoule n’est pas la lumière. Mais ce qui ne me convainc pas, c’est le fait que le clou et le marteau, ou l’ampoule et la lumière, appartiennent au même domaine de réalité : ils sont tous absolument matériels, si bien que cette métaphore me semble inapte à maintenir une différence quant aux ordres de réalité : la métaphore ne fonctionne que parce qu’on abolit dans les objets retenus ce qui justement pose problème, à savoir les différents ordres de réalité.

ER : Non, cette métaphore n’implique rien, dans mon esprit en tout cas, quant à l’identié – ou au contraire l’hétérogénéité – entre les ordres de réalité. D’ailleurs, je crois qu’ils dépendent en partie de nos catégories mentales, qui comportent de l’arbitraire. Si par exemple vous décrétez que la matière est la seule matière pesante, alors la lumière, qui n’est pas pesante, n’est donc pas matérielle en ce sens-là. Tout cela est arbitraire, c’est une question de définition. Vous pouvez à présent dire que la lumière est qualitativement différente de la matière, et vous avez donc une structure matérielle capable d’engendrer quelque chose de différent. Mais j’en profite pour rappeler qu’une métaphore n’est jamais exacte à 100 %. La carte, métaphore graphique du territoire, n’est pas le territoire. C’est juste une voie d’accès, une approximation de la vérité, qui permet à certains d’accéder à l’essentiel d’un message. Sans entrer dans ses détails plus ou moins subtils.

AP : Oui, je suis d’accord, mais il n’en demeure pas moins que la validité de la métaphore repose tout entière sur une pétition de principe : on prend pour acquis ce qui est très problématique, on évacue le problème, que ce soit chez Bergson ou chez vous puisqu’on crée une métaphore qui évite de penser ce problème : comment deux ordres de réalité différents peuvent être corrélés ? Le problème de Bergson est précisément de penser à la fois la solidarité de deux éléments et leur différence ontologique : mais au lieu de cela, il pose d’emblée une communauté ontologique (le clou et le manteau), et je crains que la métaphore que vous prenez pour illustrer la même idée fonctionne de la même manière ; je vous cite (p 52) : "Le cerveau sera alors conçu comme une machine à produire de la conscience, sans que cela implique la nature matérielle de cette dernière. Exactement à la manière dont une lampe, faite de matière solide et pesante, est néanmoins capable de produire de la lumière, qui est énergie pure et sans masse." On a le même problème : l’ampoule et la lumière ne sont pas strictement identiques, bien sûr, mais dans les deux cas on est dans ordre matériel, l’énergie pure est quantifiable, elle est objectivable, elle est matérielle, tout comme l’est l’ampoule. Par conséquent, on ne se demande plus comment ce qui est de deux ordres de réalité différents peut entrer en contact ou peut être corrélé, on prend au contraire la possibilité du contact comme acquise, parce qu’on écrase en fait la différence ontologique des deux éléments, alors même qu’elle devrait poser problème. Le clou et le manteau sont en contact parce qu’ils appartiennent tous les deux à la matière ; or, si la conscience est immatérielle, et le cerveau matériel, la question du contact se pose de manière très différente que dans le cas du clou et du manteau ou de l’ampoule et de la lumière.

ER : Cette métaphore est simplement une réaction par rapport à ceux qui identifient purement et simplement conscience et cerveau ; alors je leur dis que c’est comme si vous disiez que la lampe et la lumière sont la même chose. Or une telle identification est stupide, on le sait instinctivement.

AP : Oui, tout cela je le comprends ; mais je considère juste que cette métaphore n’est pas valide, précisément en raison de l’oubli de la différenciation ontologique des éléments qu’elle utilise (la lumière et l’ampoule ne sont pas ontologiquement différentes), alors même qu’elle est censée prouver la non-identité des deux termes, leur différence ontologique (la conscience est immatérielle, le cerveau est matériel). Bref, je ne vois pas bien en quoi ça réfute réellement la thèse matérialiste puisque la métaphore est obligée pour fonctionner, c’est-à-dire pour penser la corrélation, de prendre deux éléments qui appartiennent nécessairement au même ordre de réalité. Et le matérialisme ne dit rien d’autre.

ER : Ecoutez, je me permettrai modestement de dire que ça ne vaut pas la peine qu’on en fasse une telle histoire. Je rapelle deux choses cependant. D’une part, ma métaphore, contrairement je crois à celle de Bergson, invite à comprendre le cerveau (ou la "lampe à conscience") comme un outil de production d’autre chose – la conscience – SANS préjuger de l’identité ontologique, ou non, entre les deux. D’autre part, je suis un peu perplexe sur ce que vous dites sur la possibilité du contact entre matière (cérébrale, ou autre) et la conscience. Car ce contact est au coeur de mon livre, dont le but premier est précisément de proposer une solution à cette énigme. Ce n’est rien de moins que son sujet central ! Je crois pouvoir la résoudre, en m’appuyant sur la physique quantique (dépouillée des confusions et contresens qui l’entourent) et la notion de psychomatière. Tout mon livre est là… et je suppose que cela ne vous a pas échappé. En fait, je commence à douter : ai-je été suffisamment clair pour le lecteur ?

Auteur: Ransford Emmanuel

Info: Sur actu-philosophia, interview de Thibaut Gress, 7.1 2010 à propos de son livre "Les racines physiques de l’esprit ". *Henri Bergson, L’énergie spirituelle, Edition du centenaire, PUF, 1959, p. 842

[ dualité prison ] [ rationalisme impuissant ] [ limitation sémantique ]

 

Commentaires: 0

Ajouté à la BD par miguel

Co-vid 2019

Dans les 2 premières partie de La secte covidienne, j'ai caractérisé la soi-disant "nouvelle normalité" comme un "mouvement idéologique totalitaire mondial". Depuis que j'ai publié ces essais, de plus en plus de gens en sont venus à la considérer pour ce qu'elle est, non pas comme une "folie" ou une "réaction excessive", mais, de fait, comme une nouvelle forme de totalitarisme,  mondialisée, pathologisée, dépolitisée, systématiquement mise en œuvre sous le couvert de la "protection de la santé publique".

Afin de s'opposer à cette nouvelle forme de totalitarisme, nous devons comprendre en quoi elle ressemble et diffère des systèmes totalitaires antérieurs. Les similitudes sont assez évidentes - suspension des droits constitutionnels, gouvernements qui gouvernent par décret, la propagande officielle, les rituels de loyauté publique, la mise hors la loi de l'opposition, la censure, la ségrégation sociale, les escadrons d'élite qui terrorisent le public, etc.

Alors que le totalitarisme du XXe siècle (c'est-à-dire la forme que la plupart des gens connaissent généralement) était plus ou moins national et ouvertement politique, le totalitarisme de la nouvelle normalité est supranational et son idéologie est beaucoup plus subtile. La nouvelle normalité n'est pas le nazisme ou le stalinisme. C'est le totalitarisme capitaliste mondial, et le capitalisme mondial n'a pas d'idéologie, techniquement, ou, plutôt, son idéologie est la "réalité". Lorsque vous êtes un hégémon idéologique mondial sans égal, comme l'est le capitalisme mondial depuis une trentaine d'années, votre idéologie devient automatiquement la "réalité", car il n'y a pas d'idéologies concurrentes. En fait, il n'y a pas d'idéologie du tout... il n'y a que la "réalité" et l'"irréalité", la "normalité" et les "déviations de la norme".

Oui, je sais, la réalité est la réalité ... c'est pourquoi je mets tous ces termes entre guillemets, alors, s'il vous plaît, épargnez-moi les longs emails prouvant de manière concluante la réalité de la réalité et essayez de comprendre comment cela fonctionne.

Il y a la réalité (quelle que soit la croyance que vous en avez), et il y a la "réalité", qui dicte le fonctionnement de nos sociétés. La "réalité" est construite (c'est-à-dire simulée), collectivement, selon l'idéologie du système qui contrôle la société. Dans le passé, la "réalité" était ouvertement idéologique, quelle que soit la "réalité" dans laquelle vous viviez, car il existait d'autres "réalités" concurrentes. Il n'y en a plus aujourd'hui. Il n'y a qu'une seule "réalité", parce que la planète entière - oui, y compris la Chine, la Russie, la Corée du Nord et d'autres pays - est contrôlée par un système hégémonique mondial.

Un système hégémonique mondial n'a pas besoin d'idéologie, parce qu'il n'a pas à entrer en compétition avec des idéologies rivales. Il efface donc l'idéologie et la remplace par la "réalité". La réalité (peu importe ce que vous croyez personnellement qu'elle est, ce qui est bien sûr ce qu'elle est réellement) n'est pas réellement effacée. Cela n'a simplement pas d'importance, car vous n'avez pas le droit de dicter la "réalité". Le capitalisme mondial a le droit de dicter la "réalité" ou, plus précisément, il simule la "réalité" et, ce faisant, il simule le contraire de la "réalité", ce qui est tout aussi important, sinon plus. 

Cette "réalité" fabriquée par le capitalisme mondial est une "réalité" dépolitisée et a-historique, qui forme une frontière idéologique invisible établissant les limites de ce qui est "réel". De cette façon, le capitalisme mondial (a) dissimule sa nature idéologique, et (b) rend automatiquement toute opposition idéologique illégitime, ou, plus exactement, inexistante. L'idéologie telle que nous la connaissions disparaît. Les arguments politiques, éthiques et moraux sont réduits à la question de ce qui est "réel" ou "factuel", que dictent les "experts" et les "vérificateurs" de GloboCap.

Par exemple, la "guerre mondiale contre le terrorisme", qui était la "réalité" officielle de 2001 jusqu'à son annulation à l'été 2016, lorsque la "guerre contre le populisme" fut officiellement lancée.  Nous avons désormais remplacé cette dernière par la "Nouvelle Normalité", depuis le printemps 2020. Chacune de ces nouvelles simulations de la "réalité" se déployant brutalement, maladroitement même, comme cette scène de 1984 où le Parti change d'ennemi officiel en plein milieu d'un discours de la Semaine de la haine.

Sérieusement, pensez à où nous en sommes actuellement, 18 mois après le début de notre nouvelle "réalité", puis revenez en arrière et examinez comment GloboCap a déployé de manière flagrante la cette nouvelle Normalité au printemps 2020… et la majorité des masses n'a même pas cillé. Ils sont passés de manière transparente à la nouvelle "réalité" dans laquelle un virus, plutôt que des "suprémacistes blancs", ou des "agents russes" ou des "terroristes islamiques", est devenu le nouvel ennemi officiel. Ils ont rangé les scripts  récités textuellement au cours des quatre années précédentes, et les scripts récités au cours des 15 années précédentes, et ont commencé à baragouiner frénétiquement le discours culte de Covid comme s'ils auditionnaient pour une parodie d'Orwell "over the top".

Ce qui nous amène au problème du culte covidien... comment les atteindre, ce que, ne vous y trompez pas, nous devons faire, d'une manière ou d'une autre, sinon le New Normal deviendra notre "réalité" permanente.

J'ai appelé cette nouvelle normalité "secte covidienne", non pas pour les insulter ou les railler gratuitement, mais parce que c'est ce qu'est le totalitarisme... une secte à grande échelle, à l'échelle de la société. Quiconque a essayé de leur parler peut confirmer l'exactitude de cette analogie. Vous pouvez leur montrer les faits jusqu'à devenir vert. Cela ne fera pas la moindre différence. Vous pensez avoir un débat sur les faits, mais ce n'est pas le cas. Vous menacez leur nouvelle "réalité". Vous pensez  vous efforcer de les amener à penser rationnellement. Vous ne le faites pas. Vous êtes un hérétique, un agent des forces démoniaques, un ennemi de tout ce qui est "réel" et "vrai".

Les scientologues vous qualifieraient de "personne suppressive". Les Nouveaux Normaux vous appellent un "théoricien de la conspiration", "anti-vaxxer" ou "négateur de virus". Les épithètes spécifiques n'ont pas vraiment d'importance. Ce ne sont que des étiquettes que les membres des sectes et les totalitaires utilisent pour diaboliser ceux qu'ils perçoivent comme des "ennemis"... toute personne qui conteste la "réalité" de la secte ou la "réalité" du système totalitaire.

Le fait est qu'il est impossible de faire sortir les gens d'une secte et de les faire sortir du totalitarisme. Habituellement, ce qu'on fait, dans le cas d'une secte, c'est de sortir la personne de la secte, de l'enlever et l'emmener dans un lieu sûr, et l'entourer d'un grand nombre de personnes qui ne font pas partie de la secte et vous la déprogrammez progressivement sur plusieurs jours. Vous faites cela parce que, tant qu'elle est dans la secte, vous ne pouvez pas lui parler. Elle ne peut pas vous entendre. Une secte est une "réalité" collective et autonome. Son pouvoir découle de l'organisme social composé des dirigeants et des autres membres de la secte. Vous ne pouvez pas "parler" de ce pouvoir. Vous devez physiquement en retirer la personne avant de pouvoir commencer à la raisonner.

Malheureusement, nous n'avons pas cette possibilité. La nouvelle normalité est un système totalitaire mondial. Il n'y a pas d'"extérieur" du système où se retirer. Nous ne pouvons pas kidnapper tout le monde et les emmener en Suède. Comme je l'ai remarqué dans la première partie de cette série, le paradigme secte/société a été inversé. La secte est devenue la société dominante, et ceux d'entre nous qui n'ont pas été convertis sont devenus une multitude d'îles isolées, non pas à l'extérieur, mais au sein de la secte.

Bref il faut maintenant faire en sorte que GloboCap (et ses sbires) devienne ouvertement totalitaire… car il ne le peut pas. S'il le pouvait, il l'aurait déjà fait. Le capitalisme mondial ne peut fonctionner ainsi. Devenir ouvertement totalitaire le fera imploser… non pas le capitalisme mondial lui-même, mais cette version totalitaire de celui-ci. En fait, cela commence déjà à se produire.

Il a besoin de la simulation de la "réalité", de la "démocratie" et de la "normalité" pour garder les masses dociles. Nous devons donc attaquer cette simulation. Nous devons le répéter sans cesse jusqu'à ce qu'il craque et que le monstre qui s'y cache apparaisse.

Voilà la faiblesse du système… le totalitarisme New Normal ne fonctionnera pas si les masses le perçoivent comme un totalitarisme, comme un programme politique/idéologique, plutôt que comme "la  réponse à une pandémie mortelle". Nous devons donc le rendre visible en tant que totalitarisme. A le voir tel qu'il est. Je ne veux pas dire que nous devons l'expliquer à ceux qui en sont les bras agissants. Ils sont hors de portée des explications. Je veux dire qu'il faut leur faire voir, ressentir, de manière tangible, inéluctable, jusqu'à ce qu'ils reconnaissent ce avec quoi ils collaborent.

Arrêtez de vous disputer avec eux à leurs conditions et attaquez plutôt directement leur "réalité". Quand ils commencent à bavarder sur le virus, les variants, les "vaccins" et autres discours cultes de Covid qui aspirent leur récit. Ne répondez pas comme s'ils étaient rationnels. Répondez comme s'ils parlaient de "Xenu", de "body thétans scientologues", de "Helter Skelter confus" ou de tout autre non-sens cultoïde, parce que c'est exactement ce que c'est. Il en va de même pour leurs règles et restrictions, les "masques", la "distanciation sociale", etc. Arrêtez de plaider que leurs arguments sont faux. Bien sûr qu'ils le sont, mais là n'est pas la question (et argumenter de cette façon vous aspire dans leur "réalité"). Opposez-vous à eux à cause de ce qu'ils sont, une collection de rituels de conformité bizarres exécutés pour cimenter l'allégeance au culte et créer une atmosphère générale de "pandémie mortelle".

Il existe de nombreuses façons de procéder, c'est-à-dire de générer des conflits internes. Je l'ai fait à ma façon, les autres le font à la leur. Si vous êtes l'un d'entre eux, merci. Si vous ne l'êtes pas, commencez. Faites-le partout où vous le pouvez. Faites en sorte que les Nouveaux Normaux se confrontent au monstre, le monstre qu'ils nourrissent… le monstre qu'ils sont devenus.

Auteur: Hopkins Christopher J

Info: The consent factory, 2 septembre 2021

[ globalisation ] [ dictature sanitaire ] [ nouvelle normalité ] [ subversion ]

 
Commentaires: 1
Ajouté à la BD par miguel

volatiles

Cette découverte scientifique est restée cachée dans un tiroir de musée pendant des décennies.  

Les oiseaux que nous allons rencontrer ne ressemblent à rien de ce que vous avez déjà vu.

Federico Degrange : Ils utilisent leur bec comme une hache pour tuer leurs proies.

Lichtman : Oh, mon Dieu.

Daniel Ksepka : Imaginez la plus grande chose que vous ayez jamais vue en vie en train de voler.

James Hansford : Ils sont colossaux. Ils pèsent environ 1 900 livres.

Alicia Grealy : Les œufs auraient été environ 150 fois plus gros qu'un œuf de poule.

Ksepka : Nous parlons donc de plumes d'environ deux pieds, ce qui est... c'est une grande plume.

Anusuya Chinsamy-Turan : La plupart des gens, vous savez, pensent à l'autruche - et ils pensent que c'est grand. Mais en fait, il y avait de vrais géants à une époque.

Lichtman : Nous parlons d'oiseaux qui pesaient autant qu'une voiture de sport, d'oiseaux qui étaient les plus grands prédateurs de leur époque, parcourant la jungle et dévorant des animaux de la taille d'un petit cheval, d'oiseaux si gargantuesques qu'on pouvait les confondre avec un avion.

Pourtant, ces oiseaux sont passés sous le radar de la paléontologie, en tout cas si on compare avec de nombreux dinosaures. Ces géants ailés sont mystérieux et les scientifiques en apprennent chaque jour un peu plus sur eux.

Au cours des quatre prochains épisodes de Science, vite fait, je vais vous les présenter. Nous partons à la recherche des oiseaux les plus extrêmes qui aient jamais existé. Bienvenue dans la première partie d'une série de quatre épisodes sur les vrais grands oiseaux.

- Bonjour, je m'appelle Daniel Ksepka.

Lichtman : Dan est un paléontologue aviaire.

Ksepka : Et je suis conservateur des sciences au Musée Bruce.

Lichtman : Quelle est votre relation avec les grands oiseaux disparus ?

Ksepka : Je les aime et ils m'aiment.

[CLIP : bruits d'océan]

Lichtman : Ok, je veux que vous fermiez les yeux. Dan va planter le décor du premier monstre que nous allons rencontrer.

Ksepka : Imaginez que vous vous trouvez en Caroline du Sud, il y a 27 millions d'années. Vous regardez la mer.

[CLIP : bruit de tempête]

Ksepka : C'est une mer agitée. Et puis, juste suspendu dans les airs, vous savez, bloquant le soleil... se déploie la plus grande chose que vous ayez jamais vue vivante en train de voler, comme un double albatros - avec une envergure de plus de 6 mètres. Elle est magnifique, et vous survole. C'est probablement un grand moment de votre vie, vous savez, l'émerveillement de voir ça.

Lichtman : Cet oiseau s'appelle Pelagornis sandersi. Il n'a pas de nom commun.

Ksepka : Oh, je l'appelle simplement Pelagornis. 

Lichtman : Dan a été le premier à décrire scientifiquement le fossile. Et nous verrons pourquoi il l'a appelé P. sandersi dans une minute. L'histoire commence lorsque ce fossile est entré dans sa vie, sans crier gare.

Ksepka : Pelagornis était un accident de chance et de fortune.

Lichtman : Dan n'a pas trouvé le fossile. Il avait été déterré en Caroline du Sud dans les années 1980, bien avant que Dan ne pose les yeux dessus.

Ksepka : Ils faisaient des fouilles à l'aéroport de Charleston et quelqu'un est tombé sur des os. Les travaux ont été interrompus.

Lichtman : Et il a fait appel à des renforts. Le regretté Al Sanders, paléontologue au musée local de Charleston.

Ksepka : Il est venu avec une équipe et ils ont ramassé ce qui avait été trouvé. Et puis, vous savez, j'aurais pensé que quiconque aurait trouvé cela se serait arrêté net et en aurait fait sa priorité parce que c'était, vous savez, le plus grand oiseau volant de tous les temps.

Lichtman : C'est du moins ce qu'aurait fait un paléontologue aviaire. Mais Al Sanders était plutôt un spécialiste des fossiles de baleines. Il a donc ramené le fossile au musée et l'a mis de côté.

Ksepka : Et Al l'a rangé dans un tiroir au fond de ce genre d'armoire dans le musée.

Lichtman : Et il est resté là pendant une trentaine d'années. Un jour, Al a parlé à Dan des ossements.  

Ksepka : Oui, et je ne m'attendais pas à voir le plus grand oiseau jamais vu dans un tiroir quand j'y suis allé. J'aurais été content avec un canard ou quelque chose comme ça.

Lichtman : Dans ce tiroir qui prenait la poussière se trouvait un fossile vieux d'environ 27 millions d'années qui ne ressemblait à rien de ce que Dan avait vu auparavant.

Ksepka : J'ai sorti l'os de l'aile, je l'ai posé sur le sol, je me suis allongé à côté et j'ai pris une photo avec mon téléphone portable parce qu'il était plus long que mon bras - c'était l'un des trois os.

Lichtman : Dan l'a baptisé Pelagornis sandersi en l'honneur d'Al Sanders, inconscient conservateur de cette découverte colossale. Dan a entrepris de comprendre tout ce qu'il pouvait sur cet oiseau. Et il s'est rendu compte que l'envergure de l'oiseau n'était pas la seule chose étonnante à son sujet. L'oiseau n'était pas seulement grand. Il était bizarre.

Ksepka : Je n'arrivais pas à croire le crâne. Il ne ressemble pas du tout à un oiseau. Il ressemble presque à un petit alligator. Avec un bec d'un pied et demi de long, contenant des mâchoires, avec des sortes de fausses dents.

Lichtman : Elles sont fausses parce qu'elles ne sont pas faites de ce dont sont faites nos dents : de la dentine et de l'émail. Mais elles ont toujours du mordant.

Ksepka : Oui, ce sont en fait des projections d'os, de petites pointes d'os dont la taille varie. Il y a donc une petite, une moyenne et une grande dans l'ordre, et elles ondulent selon ce schéma.

Lichtman : Et c'était probablement parfaits pour percer et retenir des objets glissants...

Ksepka : Donc, quelque chose comme un poisson ou un calmar une fois attrapé.

Lichtman : Outre les fausses dents de poisson, les os de l'épaule de l'oiseau étaient également étranges. Les omoplates de l'oiseau étaient minuscules. L'articulation de l'épaule et l'os qui s'y rattache avaient une forme inhabituelle.

Ksepka : Il ne semble pas qu'elle puisse vraiment fonctionner comme un oiseau normal. Cet oiseau ne pouvait donc pas lever son aile au-dessus du niveau de son dos. Il ne bat donc pas comme une mouette. Ou comme un oiseau chanteur.

Lichtman : Imaginez un cardinal décollant du sol, poussant ses ailes vers le haut et vers le bas, vite et fort. Ce mastodonte se contente probablement de déployer ses ailes de 20 pieds et de laisser le vent faire le travail.

Ksepka : C'est comme un cerf-volant géant. Il s'est donc probablement élevé dans les airs, soit en faisant face au vent, soit en prenant un départ un peu maladroit, soit en utilisant l'élévation à son avantage...

Lichtman : Et une fois que cet oiseau était en l'air, Dan pense qu'il pouvait probablement s'élever sur de grandes distances.

Ksepka : Je ne serais pas surpris que le Pelagornis puisse traverser l'Atlantique et s'arrêter en Afrique ou en Europe, puis revenir dans le cadre de sa migration saisonnière.

Lichtman : Cette espèce, Pelagornis sandersi, n'a été trouvée qu'à Charleston, mais ses proches - les autres oiseaux de cette bande de fausses dents - sont présents partout.

Ksepka : On les trouve partout dans le monde. Nous avons trouvé des fossiles en Antarctique, en Nouvelle-Zélande, dans l'État de Washington et dans l'Oregon, en Europe, en Afrique, en Amérique du Sud. On en trouve littéralement sur tous les continents.

Lichtman : Entre sa taille gigantesque et ses dents, Pelagornis est peut-être l'un des oiseaux les plus étranges de l'histoire de la Terre. Et la question qui me vient à l'esprit est la suivante : comment cet oiseau est-il apparu ? Dan pense que l'apparition de ce groupe - les pélagornithidés - est peut-être liée à la disparition d'autres créatures volantes étranges et géantes.

Ksepka : Dans le cas des pélagornithidés, ce rôle particulier serait rempli par des reptiles volants au Crétacé. Certaines de ces espèces sont bien plus grandes que Pelagornis et disparaissent lors de la même extinction que les dinosaures nonaviens, ce qui permet à un nouveau groupe d'explorer le rôle d'animal volant de très grande taille. Et les pélagornithidés sont le premier groupe à s'en emparer.

Lichtman : Ils se sont engouffrés dans une niche ouverte. C'est ce que m'ont dit de nombreux chercheurs spécialisés dans les grands oiseaux avec lesquels je me suis entretenu pour cette série : ces oiseaux géants sont entrés en scène en partie parce que l'extinction massive a éliminé la concurrence. Et il ne s'agit pas seulement des dinosaures : d'autres reptiles et les premiers oiseaux se sont également éteints. Les survivants ont donc eu accès à des ressources et à des écosystèmes qui n'existaient pas auparavant. Au fil des ans, j'ai beaucoup entendu parler de la radiation des mammifères, qui ont connu leur heure de gloire après la disparition des dinosaures. Mais dans un monde post-dinosaures, les oiseaux ont également déployé leurs ailes et se sont spécialisés.

Ksepka : Une spectaculaire diffusion des oiseaux s'est produite au cours des quelques millions d'années qui ont suivi cette extinction massive. Les ancêtres des oiseaux modernes ont donc la possibilité d'explorer des habitats arboricoles, prédateurs ou aquatiques pour la première fois. Et ils deviennent vraiment - ils deviennent un peu sauvages.

Lichtman : Pelagornis n'est qu'un début. Nous avons d'autres oiseaux sauvages à rencontrer dans les prochains épisodes : des oiseaux qui se sont élevés tel le phénix après l'extinction des dinosaures et qui sont devenus différents de tous les oiseaux encore en vie aujourd'hui.

Ksepka : Par exemple, les oiseaux-éléphants étaient peut-être les plus grands oiseaux qui aient jamais vécu.

Alicia Grealy : Oui, certains pouvaient peser jusqu'à une tonne. C'est pour cela qu'on les appelle les oiseaux-éléphants, n'est-ce pas ?

Lichtman : C'est ce que nous verrons dans le prochain épisode de cette série en quatre parties.

Auteur: Internet

Info: Flora Lichtman, 31 mai 2023. Emission de radio, repris par https://www.scientificamerican.com/

[ oryctographie ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Le temps est une différence de pression : la respiration comme média environnemental dans "Exhalation" de Ted Chiang

Dans la nouvelle de science-fiction "Exhalation" de Ted Chiang, publiée en 2008, le souffle est le médiateur de la fin du monde.

Ce texte raconte l'histoire d'une espèce mécanique alimentée par l'air. Chaque jour, les membres de cette espèce consomment deux poumons d'aluminium remplis d'air, et chaque jour, ils les remplissent à nouveau à partir d'un réservoir caché sous terre. Leur univers comporte de nombreuses villes et quartiers, mais il est délimité par un "mur de chrome solide" qui s'étend jusqu'au ciel. Un jour, une cérémonie traditionnelle du nouvel an, qui dure toujours exactement une heure (chronométrée avec la précision mécanique de l'espèce), dure quelques minutes de plus. C'est surprenant. La nouvelle se répand et ils découvrent que la manifestation s'est prolongée dans tout leur univers. Les horloges elles-mêmes semblent fonctionner correctement ; c'est plutôt le temps lui-même qui s'est ralenti d'une manière ou d'une autre. Le narrateur, un anatomiste, soupçonne que la vérité réside dans le cerveau des espèces et décide de procéder à une autodissection avec un appareil de sa conception. De même que la nature de la conscience échappe aux humains organiques, elle échappe aussi aux automates de Chiang. Certains pensent que leur esprit est inscrit sur d'innombrables feuilles d'or dans leur cerveau ; d'autres soupçonnent que le flux d'air agit sur d'autres supports plus subtils. Au cours de son autodissection, le narrateur découvre la vérité : la conscience n'est pas inscrite dans le cerveau, mais constituée par la circulation de l'air dans le cerveau, qui forme et reforme les connexions électriques avec une plasticité infinie. De cette révélation, le narrateur déduit que le temps lui-même ne ralentit pas, mais que c'est plutôt la force de l'air à travers le cerveau qui ralentit, altérant la cognition. La deuxième loi de la thermodynamique : l'entropie augmente dans un système fermé, ce que l'univers doit être en fait. Chaque action, pensée et mouvement augmente l'entropie de leur univers, "hâtant l'arrivée de cet équilibre fatal", c'est-à-dire la possibilité de la mort.

Comme de nombreuses histoires de Chiang, "Exhalation" explore les conséquences culturelles étendues d'un concept scientifique, en l'occurrence l'entropie. À travers les principes physiques de la thermodynamique, la respiration met en scène une ironie tragique dans le système mondial. Le travail de maintien d'un type particulier de vie rend toute autre vie impossible. Je lis "Exhalation" comme une riche archive de possibilités théoriques médiatiques, car Chiang relie les problèmes de la technologie, de la médiation, de la conscience, de l'incarnation, de la temporalité et de l'environnement. La respiration est le pivot qui maintient ces concepts ensemble, et en particulier, selon moi, la relation de la respiration avec le temps. Dans cet article, je lis "Exhalation" à la fois à travers et en tant que théorie des médias pour suggérer que la mesure et la perception du temps, qui sont depuis longtemps des problèmes fondamentaux pour les études sur les médias, sont devenues des questions environnementales urgentes. Nous pouvons appréhender ces temporalités environnementales par le biais de la respiration, qui ne fonctionne pas de manière linéaire mais plutôt récursive, franchissant une certaine échelle dans sa répétition.

"Exhalation" met en scène deux types de temps différents : celui de la perception intérieure et celui de la comptabilité extérieure. D'une part, le temps est le sentiment incarné qu'un moment suit le suivant. D'autre part, le temps est la comptabilité de technologies théoriquement impartiales, elles-mêmes étalonnées par rapport à des phénomènes physiques. Le fait que le monde d'"Exhalation" soit entièrement mécanique permet à Chiang d'établir une analogie fluide entre ces deux sens du temps. Le drame découle donc de la découverte par le narrateur que ces sens, qui partagent supposément un substrat matériel, sont devenus non calibrés. Le véritable substrat, découvre le narrateur, n'est pas la matière en elle-même, mais plutôt la différence entre les matières. "Voici pourquoi", écrit le narrateur,

...j'ai dit que l'air n'est pas la source de la vie. L'air ne peut être ni créé ni détruit ; la quantité totale d'air dans l'univers reste constante, et si l'air était tout ce dont nous avons besoin pour vivre, nous ne mourrions jamais. Mais en réalité, la source de la vie est une différence de pression atmosphérique, le flux d'air des espaces où il est épais vers ceux où il est mince.... En réalité, nous ne consommons pas d'air.

En tant que matière, l'air ne s'épuise pas. Au contraire, les actions de l'espèce évacuent la différence, augmentent l'aléatoire et éliminent ainsi l'action mécanique et sa temporalité concomitante.

À première vue, l'approche du temps de Chiang est conforme à certains modèles fondamentaux des études sur les médias, pour lesquels le temps est un effet secondaire de sa technologisation. Pour Harold Innis, critique du début du XXe siècle, par exemple, les supports d'enregistrement disponibles dans une civilisation donnée déterminent les relations possibles avec le temps. Une civilisation basée sur le papier favorise la synchronisation sur de grandes distances, facilitée par la vitesse de circulation du papier, tandis qu'une civilisation basée sur la pierre serait plus diachronique, favorisant les supports statiques qui couvrent de grandes étendues de temps. Les idées d'Innis ont inspiré des approches ultérieures des médias numériques. Pour le théoricien des médias Wolfgang Ernst, les médias numériques sont "critiques en termes de temps", dans la mesure où ils dépendent d'un timing précis pour fonctionner. Le temps numérique est mesuré par des cristaux de quartz qui marquent les tics du temps UNIX, qui compte le début de l'histoire à partir du jeudi 1er janvier 1970, lorsque le carbone atmosphérique ne mesurait que 325 ppm. Ernst fait la distinction entre le temps "dur" et le temps "mou", c'est-à-dire le temps imposé aux machines par la physique et le temps inventé par les machines dans leur fonctionnement. Si le temps dur de la physique se poursuit en dehors de l'objet médiatique, notre appréhension de ce temps est inéluctablement liée à la durabilité du temps mou, généré par les machines.

Je suis loin d'être le seul à m'opposer à ces modèles de temporalité des médias. Je pense, par exemple, à l'argument de Sarah Sharma selon lequel ces modèles sont obsédés par la vitesse : l'hypothèse selon laquelle les médias accélèrent la temporalité et réduisent l'espace, rapprochant les cultures et effaçant le temps passé à attendre que les messages soient transmis. Pour Sharma, la vitesse est trop simple ; en revanche, elle affirme que le principal sujet temporel des médias est la synchronicité, dont la négociation et le maintien exigent un travail culturel et matériel constant. La relation au temps, tout comme la relation à l'environnement, est liée à la position politique de chacun. Elle est également liée au corps. John Durham Peters affirme que le corps humain lui-même est un support temporel, qui calibre une multiplicité vertigineuse d'échelles de temps. Les rythmes circadiens intègrent la "pulsation" géophysique du jour et de la nuit dans les êtres vivants. Vu dans ce cadre, le rythme inconscient de la respiration n'est qu'une partie d'un système médiatique complexe de temporalité qui se calibre et se recalibre constamment. Je souhaite faire progresser le rythme dans mon analyse. Shintaro Miyazaki affirme que le rythme a toujours été un aspect central, bien que méconnu, de la culture algorithmique. Le rythme supplante la notion d'"horloge" ou d'"impulsion", qui ne rendent pas compte de la négociation constante entre les états de la matière caractéristiques des médias numériques. Le rythme nomme alors le travail actif de synchronisation de la médiation. Il s'ensuit que nous pourrions caractériser le drame d'"Exhalation", et peut-être notre crise climatique actuelle, comme une désarticulation du rythme.

Au fur et à mesure que la nouvelle de la découverte du narrateur se répand, la panique face à la nouvelle possibilité de mort se répand également. Pendant quelques pages, "Exhalation" devient une allégorie manifeste des réactions humaines au changement climatique. "Nombreux sont ceux qui réclament une limitation stricte des activités afin de minimiser l'épaississement de notre atmosphère", écrit le narrateur, "les accusations de gaspillage d'air ont dégénéré en rixes furieuses". Une secte quasi-religieuse, les Inverseurs, gagne en popularité. Dans une parodie de la géo-ingénierie, ils construisent un moteur qui comprime l'air, augmentant ainsi la pression atmosphérique globale. "Hélas, observe le narrateur, le moteur lui-même était alimenté par l'air du réservoir..... Il n'a pas inversé l'égalisation, mais a permis d'augmenter la pression de l'air. Il n'a pas inversé l'égalisation mais, comme tout ce qui existe dans le monde, l'a exacerbée". Face à l'impossibilité d'empêcher la dégradation de l'atmosphère, les mécaniciens tentent de remodeler le cerveau lui-même, parallèlement aux adaptations transhumaines aux climats inhospitaliers. Tout cela n'aboutit à rien. Le narrateur termine l'histoire en spéculant sur un avenir possible, lorsqu'un explorateur intrépide franchira le mur de chrome et transformera le système fermé en un système ouvert. Les automates pourraient revivre, grâce à l'introduction d'une nouvelle pression, d'un nouveau souffle, mais leur esprit et leur culture ne survivraient pas.

Mais le souffle n'est rien d'autre qu'une technologie de survie. Je pense ici au travail de Jean-Thomas Tremblay sur le souffle en tant que technique féministe, ou aux archives d'Ashton Crawley sur le souffle dans les pratiques culturelles et spirituelles des Noirs. Les logiques médiatisées de sa mise en péril, de sa vulnérabilité et de sa force sont, comme l'affirme Tremblay, "autant une déclaration phénoménologique qu'une déclaration historique et culturelle". À ces archives respiratoires, j'ajouterais le souffle en tant que médiation environnementale. Cette médiation se produit à différents niveaux, depuis le brouillage par la respiration des frontières entre les médias et le corps jusqu'à la respiration en tant que modèle de réflexion sur le temps environnemental. Il est essentiel de noter qu'il ne s'agit pas d'un temps avec un début ou une fin, mais plutôt de cycles imbriqués de naissance et de décomposition, la médiation s'empilant sur elle-même. Quels nouveaux rythmes peuvent émerger ?

La temporalité de la conclusion d'"Exhalation" apporte une réponse provisoire. Les derniers paragraphes offrent une "valédiction"*, le narrateur s'adressant directement au lecteur. "Le même sort que celui qui m'a frappé t'attend-il ?" demandent-ils. Alors que la majeure partie du récit se déroule au passé, la fin s'inscrit dans un futur imaginé et s'adresse au lecteur à l'impératif : "Visualisez tout cela la prochaine fois que vous regarderez le monde gelé qui vous entoure, et il redeviendra, dans votre esprit, animé et vital. Telle est la temporalité de la spéculation, que Chiang présente comme un mode de réflexion sur l'effondrement écologique, qui ne prend pas l'effondrement comme une donnée et ne croit pas naïvement qu'il peut être évité. Il y a une fin, et il y a ce qui vient après la fin. L'après-fin est un espace de possibilités endeuillées :

Notre univers aurait pu glisser vers l'équilibre en n'émettant rien de plus qu'un sifflement silencieux. Le fait qu'il ait engendré une telle plénitude est un miracle, qui n'a d'égal que l'univers qui vous a donné naissance.

Respirer, c'est être médiateur du temps, pour soi mais aussi pour les autres. C'est être le médiateur de la possibilité du prochain souffle à venir, c'est coordonner et relier une multitude de systèmes naturels et culturels. Dans le cadre de la crise climatique, nous savons désormais de manière concluante que nos médias industriels sont à bout de souffle. Le défi que nous lance "Exhalation" est de les refaçonner pour qu'ils puissent soutenir le souffle.

Auteur: Moro Jeffrey

Info: https://jeffreymoro.com/blog/2022-04-01-defense-talk/ - 7 Jan 2021. Présentation faite dans le cadre du panel Environmental Media au MLA 2021, qui s'est tenu virtuellement. Pour les références du texte, voir directement sur le site. Trad Mg et DeepL. *Formule qui recommande le destinataire à la protection divine

[ homme-machine ] [ cadence ] [ science-fiction ] [ analyse de texte ] [ réchauffement climatique ] [ Gaïa ] [ tétravalence ] [ accélérationnisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

bêtise bipolaire

Il ne fait aucun doute que les IA sont biaisées. Mais beaucoup déclarent que ces problématiques de l'IA existent parce que nous humains sommes imparfaits, plus que les machines. "Les machines sont-elles condamnées à hériter des préjugés humains ?", titrent les journaux. "Les préjugés humains sont un énorme problème pour l'IA. Voilà comment on va arranger ça." Mais ces récits perpétuent une dangereuse erreur algorithmique qu'il faut éviter.

Oui, les humains sont subjectifs. Oui, malgré les efforts conscients et inconscients de ne pas l'être, nous faisons de la discrimination, nous stéréotypons et portons toutes sortes de jugements de valeur sur les gens, les produits et la politique. Mais nos préjugés ne sont pas correctement mesurés ou modélisés par les machines. Non, les tendances machine sont dues à la logique même de la collecte des données : le système binaire.

Le système binaire est la chaîne de 0 et 1 à la base de tous les systèmes informatiques. Cette méthode mathématique permet de réduire et de calculer efficacement les grands nombres et, deuxièmement, elle permet la conversion de l'alphabet et de la ponctuation en ASCII (American Standard Code for Information Interchange).

Mais ne vous laissez pas berner : Ces 0 et 1 ne signifient pas que la machine comprend le monde et les langages comme nous le faisons : "La plupart d'entre nous, la plupart du temps, suivons des instructions qui nous sont données par ordinateur plutôt que l'inverse ", explique l'historien des technologies George Dyson. Afin de pouvoir communiquer avec les ordinateurs, nous sommes ajustés et orientés vers leur logique, et non vers la nôtre.

Le système binaire réduit tout à des 0 et des 1 insignifiants, quand la vie et l'intelligence font fonctionner XY en tandem. lui rend la lecture et le traitement des données quantitatives plus pratiques, plus efficaces et plus rentables pour les machines. Mais c'est au détriment des nuances, de la richesse, du contexte, des dimensions et de la dynamique de nos langues, cultures, valeurs et expériences.

Il ne faut pas accabler ici les développeurs de la Silicon Valley pour ce système binaire biaisé - mais plutôt Aristote.

Le parti pris binaire d'Aristote
Si vous pensez à Aristote, vous pensez probablement au philosophe grec antique comme à un des pères fondateurs de la démocratie, et non comme l'ancêtre de siècles de logique mécanique et de méthodes scientifiques erronées. C'est cependant sa théorie du "dualisme", selon laquelle quelque chose est soit vrai soit faux, logique ou illogique, qui nous a mis dans cette situation délicate en premier lieu.

Vers 350 av. J.-C., Aristote voulut réduire et structurer la complexité du monde. Pour ce faire, il fit des emprunts à la Table des Opposés de Pythagore, dans laquelle deux éléments sont comparés :

fini, infini... impair, pair... un, beaucoup... droite, gauche... repos, mouvement... droit, tordu... etc.

Mais au lieu d'appliquer ce dualisme à la géométrie neutre comme l'avait fait Pythagore, Aristote l'appliqua aux personnes, aux animaux et à la société. Ce faisant, il conçut un patriarcat hiérarchique social polarisé clivant, enraciné dans ses valeurs internes et ses préjugés : Les objets qu'il ordonnait avoir plus de valeur devinrent des 1, et ceux de moindre importance des 0. En ce qui concerne les femmes, par exemple, il écrivit : "La relation de l'homme à la femme est par nature une relation de supérieur à inférieur et de souverain à gouverné."

Hélas, le système de classification hiérarchique d'Aristote a été implémenté dans l'IA, la pondérant en faveur d'hommes comme lui. Le système même sur lequel toute la technologie moderne est construite contient les artefacts du sexisme d'il y a 2 000 ans.

1 = vrai = rationnel = droit = masculin
0 = faux = émotionnel = gauche = féminin
Si Aristote avait créé la démocratie - et la démocratie est censée être une véritable représentation - femmes et gens de couleur auraient dû avoir un accès égal à l'éducation, avoir voix au chapitre dans les forums et avoir le droit de vote en 350 av. JC. Il n'aurait pas été nécessaire de se battre jusqu'en 1920 pour que le vote féminin soit ratifié aux Etats-Unis. Il n'y aurait pas eu d'esclavage et pas besoin du mouvement pour les droits civiques. Tout le monde aurait été classé et considéré comme égal dès le départ.

Le classement biaisé d'Aristote est maintenant verrouillé et renforcé par plus de 15 millions d'ingénieurs.
Aristote aurait dû lire les notes de son prédécesseur, Socrate. Selon les souvenirs de Platon, Socrate considérait les oracles féminins de Delphes comme "un guide essentiel du développement personnel et de l'état". De plus, dans le Symposium de Platon, Socrate se souvient de l'époque où il était l'élève de Diotima de Mantinea, une femme philosophe dont il tenait en haute estime l'intelligence. Dans le livre V, Socrate est crédité d'avoir suggéré que les femmes sont également qualifiées pour diriger et gouverner : "Il n'y a pas de pratique des gouverneurs d'une ville qui appartient à une femme parce qu'elle est une femme, ou à un homme parce qu'il est un homme."

Mais au lieu que les idées de Socrate sur l'égalité enracinent les idées occidentales sur l'intelligence, nous nous sommes retrouvés avec la logique d'Aristote et son classement biaisé sans être conscients de ses origines binaires et anti-démocratiques.

Mais ne blâmons pas seulement Aristote. Deux autres coquins ont contribué à ces problèmes sociaux et scientifiques : Descartes et Leibniz.

Descartes - philosophe français du XVIIe siècle qui a inventé l'expression "je pense, donc je suis" -, a implanté l'idée qu'un sujet n'a ni matière ni valeur autre que ce que le visiteur attribue et déduit. (S'il avait dit "Nous pensons, donc nous sommes", cela aurait mieux reflété comment nous sommes symbiotiquement informés par les perceptions les uns et des autres.)

En outre, Descartes a proposé une plus grande séparation de l'esprit du corps et des émotions dans son traité de 1641, Méditations sur la Première Philosophie. Il a soutenu que nos esprits sont dans le domaine du spirituel tandis que nos corps et nos émotions sont dans le domaine du physique, et que les deux royaumes ne peuvent pas s'influencer mutuellement. Ce qui a causé des problèmes en IA parce que maintenant nous empilons des unités d'émotions sur des couches de classification binaires d'une manière artificielle et non intégrée. Encore du binaire.

La logique déductive-inductive de Descartes, qu'il explora dans son discours sur la méthode de 1637, fut créée parce qu'il était désabusé par les méthodes non systématiques des scientifiques de son temps. Il fit valoir que les mathématiques ont été construites sur une "base solide", et a donc cherché à établir un nouveau système de vérité fondée sur Aristote 1 = vrai = valide, et 0 = faux = invalide. La différence étant qu'il a mis les lignes de la logique syllogistique d'Aristote au sein d'une structure arborescente. Structures arborescentes qui sont maintenant utilisées dans les réseaux neuronaux récurrents du NLP (Natural Language Processing)

Vint ensuite Leibniz, le philosophe et avocat allemand inventa le calcul indépendamment de son contemporain, Newton. Il créa le système binaire entre 1697 et 1701 afin d'obtenir des verdicts "oui/non" plus rapides et ainsi réduire les grands nombres en unités plus faciles à gérer de 0 et 1.

Contrairement aux autres, Leibniz était sinophile. En 1703, le prêtre jésuite Bouvet lui avait envoyé une copie du Yi King (le Livre des Changements), artefact culturel chinois dont l'origine remonte à 5.000 ans. Il était fasciné par les similitudes apparentes entre les lignes horizontales et les intervalles des hexagrammes du Yi King et les 0 et 1 des lignes verticales de son système binaire. Il interpréta faussement ces intervalles comme étant du vide (donc zéro) croyant (à tort) que les hexagrammes confirmaient que son système binaire était la bonne base pour un système logique universel.

Leibniz fit trois autres erreurs majeures. Tout d'abord, il a fit pivoter les hexagrammes de leurs positions horizontales naturelles vers les positions verticales pour les faire correspondre à ses lignes binaires. Deuxièmement, il les sépara du contexte des symboles chinois et des chiffres correspondants. Troisièmement, puisqu'il n'était pas chinois et qu'il ne comprenait pas l'héritage philosophique ou la langue, il supposa que les hexagrammes représentaient les nombres 0 et 1 lorsqu'ils représentent des énergies négatives et positives, Yin Yang, homme et femme. Erreurs qui signifient que Leibniz perdit beaucoup d'informations et de connaissances venant des codes du Yi King et de la vraie signification de ses hexagrammes.

Au lieu de créer un système universel cohérent, le système binaire de Leibniz renforça les modèles de pensée occidentale de Descartes amplifiant la base biaisée d'Aristote, nous verrouillant davantage, nous et les machines que nous avons créées, vers une logique non naturelle.

Le système binaire dans l'informatique moderne
Les classifications binaires d'Aristote sont donc maintenant évidentes dans tous les systèmes de données d'aujourd'hui, servant, préservant, propageant et amplifiant les biais partout dans les couches d'apprentissage machine.

Exemples de biais binaires dans les front-end utilisateur et le traitement des données :

glissement à droite = 1, glissement à gauche = 0
cliquer sur "like" sur Facebook = 1, pas cliquer sur like = 0
nos émotions complexes étant attribuées grossièrement comme positives = 1, négatives = 0 dans les cadres du NPL
convertir des paires d'objets comparés et leurs caractéristiques en 0 ou 1, par exemple pomme = 1, orange = 0, ou lisse = 1, bosselé = 0
lignes et colonnes pleines de 0 et de 1 dans des graphes géants "big data"
Mais le problème de la logique binaire est qu'elle ne permet pas de comprendre et de modéliser pourquoi et comment les gens ont choisi une option plutôt qu'une autre. Les machines enregistrent simplement que les gens ont fait un choix, et qu'il y a un résultat

Les machines sont donc étalonnées à partir de ces biais binaires, pas à partir des nôtres. Bien sûr, nous sommes remplis de nos propres défauts et faiblesses très humains, mais les cadres conceptuels informatiques existants sont incapables de corriger ces erreurs (et les ingénieurs n'écrivent que du code qui correspond aux limites de l'ancienne logique).

Heureusement, il existe une alternative. Les philosophies occidentales d'Aristote, de Descartes et de Leibniz sont opposées aux philosophies orientales, elles fondées sur l'équilibre naturel, la cohérence et l'intégration. Le concept chinois de Yin Yang, par exemple, met l'accent sur la dynamique égale et symbiotique du masculin et du féminin en nous et dans l'univers. Ces idées décrites dans le Yi King, que Leibniz n'a pas reconnues.

La nature rejette également le binaire. Des milliards d'années avant que le parti pris d'Aristote ne s'imprime dans la logique informatique occidentale, la nature codifiait l'intelligence comme la coexistence entrelacée de la femme X et de l'homme Y dans notre ADN. De plus, la recherche quantique a montré que les particules peuvent avoir des états de superposition enchevêtrés où elles sont à la fois 0 et 1 en même temps, tout comme le Yin Yang. La nature ne fonctionne pas en binaire, pas même avec les pigeons. Alors pourquoi le faisons-nous en informatique ?

Nous ne classons et ne qualifions pas nécessairement le monde qui nous entoure avec les préjugés hiérarchiques binaires d'Aristote. Mais la façon dont les données sont recueillies est noir (0) et blanc (1), avec des nuances de gris fournies par des pourcentages de ces données, alors que la nature et les philosophies orientales montrent que nos perceptions ne sont que vagues de couleurs mélangées ou arc-en-ciel.

Tant que nous n'aurons pas conçu des modes de catégorisation non binaires et plus holistiques en IA, les ordinateurs ne seront pas en mesure de modéliser l'image animée en technicolor de notre intelligence. Ce n'est qu'alors que les machines représenteront nos divers langages, raisonnements, valeurs, cultures, qualités et comportements humains.

Auteur: Twain Liu

Info: https://qz.com/1515889/aristotles-binary-philosophies-created-todays-ai-bias/?utm_source=facebook&utm_medium=partner-share&utm_campaign=partner-bbc

[ rationalisme occidental ] [ logique formelle ] [ intelligence artificielle ] [ Asie ] [ sciences ]

 
Commentaires: 1
Ajouté à la BD par miguel

legos protéiques

De nouveaux outils d’IA prédisent comment les blocs de construction de la vie s’assemblent

AlphaFold3 de Google DeepMind et d'autres algorithmes d'apprentissage profond peuvent désormais prédire la forme des complexes en interaction de protéines, d'ADN, d'ARN et d'autres molécules, capturant ainsi mieux les paysages biologiques des cellules.

Les protéines sont les machines moléculaires qui soutiennent chaque cellule et chaque organisme, et savoir à quoi elles ressemblent sera essentiel pour comprendre comment elles fonctionnent normalement et fonctionnent mal en cas de maladie. Aujourd’hui, les chercheurs ont fait un grand pas en avant vers cet objectif grâce au développement de nouveaux algorithmes d’apprentissage automatique capables de prédire les formes rdéployées et repliées non seulement des protéines mais aussi d’autres biomolécules avec une précision sans précédent.

Dans un article publié aujourd'hui dans Nature , Google DeepMind et sa société dérivée Isomorphic Labs ont annoncé la dernière itération de leur programme AlphaFold, AlphaFold3, capable de prédire les structures des protéines, de l'ADN, de l'ARN, des ligands et d'autres biomolécules, seuls ou liés ensemble dans différentes configurations. Les résultats font suite à une mise à jour similaire d'un autre algorithme de prédiction de structure d'apprentissage profond, appelé RoseTTAFold All-Atom, publié en mars dans Science .

Même si les versions précédentes de ces algorithmes pouvaient prédire la structure des protéines – une réussite remarquable en soi – elles ne sont pas allées assez loin pour dissiper les mystères des processus biologiques, car les protéines agissent rarement seules. "Chaque fois que je donnais une conférence AlphaFold2, je pouvais presque deviner quelles seraient les questions", a déclaré John Jumper, qui dirige l'équipe AlphaFold chez Google DeepMind. "Quelqu'un allait lever la main et dire : 'Oui, mais ma protéine interagit avec l'ADN.' Pouvez-vous me dire comment ?' " Jumper devrait bien admettre qu'AlphaFold2 ne connaissait pas la réponse.

Mais AlphaFold3 pourrait le faire. Avec d’autres algorithmes d’apprentissage profond émergents, il va au-delà des protéines et s’étend sur un paysage biologique plus complexe et plus pertinent qui comprend une bien plus grande diversité de molécules interagissant dans les cellules.

" On découvre désormais toutes les interactions complexes qui comptent en biologie ", a déclaré Brenda Rubenstein , professeure agrégée de chimie et de physique à l'Université Brown, qui n'a participé à aucune des deux études. " On commence à avoir une vision plus large."

Comprendre ces interactions est " fondamental pour la fonction biologique ", a déclaré Paul Adams , biophysicien moléculaire au Lawrence Berkeley National Laboratory qui n’a également participé à aucune des deux études. " Les deux groupes ont fait des progrès significatifs pour résoudre ce problème. "

Les deux algorithmes ont leurs limites, mais ils ont le potentiel d’évoluer vers des outils de prédiction encore plus puissants. Dans les mois à venir, les scientifiques commenceront à les tester et, ce faisant, ils révéleront à quel point ces algorithmes pourraient être utiles.

Progrès de l’IA en biologie

L’apprentissage profond est une variante de l’apprentissage automatique vaguement inspirée du cerveau humain. Ces algorithmes informatiques sont construits à l’aide de réseaux complexes de nœuds d’information (appelés neurones) qui forment des connexions en couches les unes avec les autres. Les chercheurs fournissent au réseau d’apprentissage profond des données d’entraînement, que l’algorithme utilise pour ajuster les forces relatives des connexions entre les neurones afin de produire des résultats toujours plus proches des exemples d’entraînement. Dans le cas des systèmes d'intelligence artificielle protéique, ce processus amène le réseau à produire de meilleures prédictions des formes des protéines sur la base de leurs données de séquence d'acides aminés.

AlphaFold2, sorti en 2021, a constitué une avancée majeure dans l’apprentissage profond en biologie. Il a ouvert la voie à un monde immense de structures protéiques jusque-là inconnues et est déjà devenu un outil utile pour les chercheurs qui cherchent à tout comprendre, depuis les structures cellulaires jusqu'à la tuberculose. Cela a également inspiré le développement d’outils supplémentaires d’apprentissage biologique profond. Plus particulièrement, le biochimiste David Baker et son équipe de l’Université de Washington ont développé en 2021 un algorithme concurrent appelé RoseTTAFold , qui, comme AlphaFold2, prédit les structures protéiques à partir de séquences de données.

Depuis, les deux algorithmes ont été mis à jour avec de nouvelles fonctionnalités. RoseTTAFold Diffusion pourrait être utilisé pour concevoir de nouvelles protéines qui n’existent pas dans la nature. AlphaFold Multimer pourrait étudier l’interaction de plusieurs protéines. " Mais ce que nous avons laissé sans réponse ", a déclaré Jumper, " était : comment les protéines communiquent-elles avec le reste de la cellule ? "

Le succès des premières itérations d'algorithmes d'apprentissage profond de prédiction des protéines reposait sur la disponibilité de bonnes données d'entraînement : environ 140 000 structures protéiques validées qui avaient été déposées pendant 50 ans dans la banque de données sur les protéines. De plus en plus, les biologistes ont également déposé les structures de petites molécules, d'ADN, d'ARN et leurs combinaisons. Dans cette expansion de l'algorithme d'AlphaFold pour inclure davantage de biomolécules, " la plus grande inconnue ", a déclaré Jumper, "est de savoir s'il y aurait suffisamment de données pour permettre à l'algorithme de prédire avec précision les complexes de protéines avec ces autres molécules."

Apparemment oui. Fin 2023, Baker puis Jumper ont publié les versions préliminaires de leurs nouveaux outils d’IA, et depuis, ils soumettent leurs algorithmes à un examen par les pairs.

Les deux systèmes d'IA répondent à la même question, mais les architectures sous-jacentes de leurs méthodes d'apprentissage profond diffèrent, a déclaré Mohammed AlQuraishi , biologiste des systèmes à l'Université de Columbia qui n'est impliqué dans aucun des deux systèmes. L'équipe de Jumper a utilisé un processus appelé diffusion – technologie qui alimente la plupart des systèmes d'IA génératifs non basés sur du texte, tels que Midjourney et DALL·E, qui génèrent des œuvres d'art basées sur des invites textuelles, a expliqué AlQuraishi. Au lieu de prédire directement la structure moléculaire puis de l’améliorer, ce type de modèle produit d’abord une image floue et l’affine de manière itérative.

D'un point de vue technique, il n'y a pas de grand saut entre RoseTTAFold et RoseTTAFold All-Atom, a déclaré AlQuraishi. Baker n'a pas modifié massivement l'architecture sous-jacente de RoseTTAFold, mais l'a mise à jour pour inclure les règles connues des interactions biochimiques. L'algorithme n'utilise pas la diffusion pour prédire les structures biomoléculaires. Cependant, l'IA de Baker pour la conception de protéines le fait. La dernière itération de ce programme, connue sous le nom de RoseTTAFold Diffusion All-Atom, permet de concevoir de nouvelles biomolécules en plus des protéines.

" Le type de dividendes qui pourraient découler de la possibilité d'appliquer les technologies d'IA générative aux biomolécules n'est que partiellement réalisé grâce à la conception de protéines", a déclaré AlQuraishi. "Si nous pouvions faire aussi bien avec de petites molécules, ce serait incroyable." 

Évaluer la concurrence

Côte à côte, AlphaFold3 semble être plus précis que RoseTTAFold All-Atom. Par exemple, dans leur analyse dans Nature , l'équipe de Google a constaté que leur outil est précis à environ 76 % pour prédire les structures des protéines interagissant avec de petites molécules appelées ligands, contre une précision d'environ 42 % pour RoseTTAFold All-Atom et 52 % pour le meilleur. outils alternatifs disponibles.

Les performances de prédiction de structure d'AlphaFold3 sont " très impressionnantes ", a déclaré Baker, " et meilleures que celles de RoseTTAFold All-Atom ".

Toutefois, ces chiffres sont basés sur un ensemble de données limité qui n'est pas très performant, a expliqué AlQuraishi. Il ne s’attend pas à ce que toutes les prédictions concernant les complexes protéiques obtiennent un score aussi élevé. Et il est certain que les nouveaux outils d’IA ne sont pas encore assez puissants pour soutenir à eux seuls un programme robuste de découverte de médicaments, car cela nécessite que les chercheurs comprennent des interactions biomoléculaires complexes. Pourtant, " c'est vraiment prometteur ", a-t-il déclaré, et nettement meilleur que ce qui existait auparavant.

Adams est d'accord. "Si quelqu'un prétend pouvoir utiliser cela demain pour développer des médicaments avec précision, je n'y crois pas", a-t-il déclaré. " Les deux méthodes sont encore limitées dans leur précision, [mais] les deux constituent des améliorations spectaculaires par rapport à ce qui était possible. "

(Image gif, tournante, en 3D : AlphaFold3 peut prédire la forme de complexes biomoléculaires, comme cette protéine de pointe provenant d'un virus du rhume. Les structures prédites de deux protéines sont visualisées en bleu et vert, tandis que les petites molécules (ligands) liées aux protéines sont représentées en jaune. La structure expérimentale connue de la protéine est encadrée en gris.)

Ils seront particulièrement utiles pour créer des prédictions approximatives qui pourront ensuite être testées informatiquement ou expérimentalement. Le biochimiste Frank Uhlmann a eu l'occasion de pré-tester AlphaFold3 après avoir croisé un employé de Google dans un couloir du Francis Crick Institute de Londres, où il travaille. Il a décidé de rechercher une interaction protéine-ADN qui était " vraiment déroutante pour nous ", a-t-il déclaré. AlphaFold3 a craché une prédiction qu'ils testent actuellement expérimentalement en laboratoire. "Nous avons déjà de nouvelles idées qui pourraient vraiment fonctionner", a déclaré Uhlmann. " C'est un formidable outil de découverte. "

Il reste néanmoins beaucoup à améliorer. Lorsque RoseTTAFold All-Atom prédit les structures de complexes de protéines et de petites molécules, il place parfois les molécules dans la bonne poche d'une protéine mais pas dans la bonne orientation. AlphaFold3 prédit parfois de manière incorrecte la chiralité d'une molécule – l'orientation géométrique distincte " gauche " ou " droite " de sa structure. Parfois, il hallucine ou crée des structures inexactes.

Et les deux algorithmes produisent toujours des images statiques des protéines et de leurs complexes. Dans une cellule, les protéines sont dynamiques et peuvent changer en fonction de leur environnement : elles se déplacent, tournent et passent par différentes conformations. Il sera difficile de résoudre ce problème, a déclaré Adams, principalement en raison du manque de données de formation. " Ce serait formidable de déployer des efforts concertés pour collecter des données expérimentales conçues pour éclairer ces défis ", a-t-il déclaré.

Un changement majeur dans le nouveau produit de Google est qu'il ne sera pas open source. Lorsque l’équipe a publié AlphaFold2, elle a publié le code sous-jacent, qui a permis aux biologistes de reproduire et de jouer avec l’algorithme dans leurs propres laboratoires. Mais le code d'AlphaFold3 ne sera pas accessible au public.

 " Ils semblent décrire la méthode en détail. Mais pour le moment, au moins, personne ne peut l’exécuter et l’utiliser comme il l’a fait avec [AlphaFold2] ", a déclaré AlQuraishi. C’est " un grand pas en arrière. Nous essaierons bien sûr de le reproduire."

Google a cependant annoncé qu'il prenait des mesures pour rendre le produit accessible en proposant un nouveau serveur AlphaFold aux biologistes exécutant AlphaFold3. Prédire les structures biomoléculaires nécessite une tonne de puissance de calcul : même dans un laboratoire comme Francis Crick, qui héberge des clusters informatiques hautes performances, il faut environ une semaine pour produire un résultat, a déclaré Uhlmann. En comparaison, les serveurs plus puissants de Google peuvent faire une prédiction en 10 minutes, a-t-il déclaré, et les scientifiques du monde entier pourront les utiliser. "Cela va démocratiser complètement la recherche sur la prédiction des protéines", a déclaré Uhlmann.

Le véritable impact de ces outils ne sera pas connu avant des mois ou des années, alors que les biologistes commenceront à les tester et à les utiliser dans la recherche. Et ils continueront à évoluer. La prochaine étape de l'apprentissage profond en biologie moléculaire consiste à " gravir l'échelle de la complexité biologique ", a déclaré Baker, au-delà même des complexes biomoléculaires prédits par AlphaFold3 et RoseTTAFold All-Atom. Mais si l’histoire de l’IA en matière de structure protéique peut prédire l’avenir, alors ces modèles d’apprentissage profond de nouvelle génération continueront d’aider les scientifiques à révéler les interactions complexes qui font que la vie se réalise.

" Il y a tellement plus à comprendre ", a déclaré Jumper. "C'est juste le début."

Auteur: Internet

Info: https://www.quantamagazine.org/new-ai-tools-predict-how-lifes-building-blocks-assemble-20240508/ - Yasemin Saplakoglu, 8 mai 2024

[ briques du vivant ] [ texte-image ] [ modélisation mobiles ] [ nano mécanismes du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

biophysique

Lorsque le biologiste Tibor Gánti est décédé le 15 avril 2009, à l'âge de 75 ans, il était loin d'être connu. Une grande partie de sa carrière s'est déroulée derrière le rideau de fer qui a divisé l'Europe pendant des décennies, entravant les échanges d'idées.

Mais si les théories de Gánti avaient été plus largement connues à l'époque communiste, il pourrait aujourd'hui être acclamé comme l'un des biologistes les plus novateurs du XXe siècle. En effet, il a conçu un modèle d'organisme vivant le plus simple possible, qu'il a appelé le chimiotone ( Chemoton ) , et qui permet d'expliquer l'apparition de la vie sur Terre.

Pour les astrobiologistes qui s'intéressent à la vie au-delà de notre planète, le chimiotactisme offre une définition universelle de la vie, qui n'est pas liée à des substances chimiques spécifiques comme l'ADN, mais plutôt à un modèle d'organisation global.

"Il semble que Ganti a réfléchi aux fondements de la vie plus profondément que quiconque", déclare le biologiste Eörs Szathmáry, du Centre de recherche écologique de Tihany, en Hongrie.

Les débuts de la vie

Il n'existe pas de définition scientifique commune de la vie, mais ce n'est pas faute d'avoir essayé : Un article de 2012 a recensé 123 définitions publiées. Il est difficile d'en rédiger une qui englobe toute la vie tout en excluant tout ce qui n'est pas vivant et qui possède des attributs semblables à ceux de la vie, comme le feu et les voitures. De nombreuses définitions indiquent que les êtres vivants peuvent se reproduire. Mais un lapin, un être humain ou une baleine ne peuvent se reproduire seuls.

En 1994, un comité de la NASA a décrit la vie comme "un système chimique autonome capable d'une évolution darwinienne". Le mot "système" peut désigner un organisme individuel, une population ou un écosystème. Cela permet de contourner le problème de la reproduction, mais à un prix : l'imprécision.

(Photo : un cercle cellule contenant un autre cercle cellule en train de se dédoubler) 

Fonctionnement du chimiotactisme. Ce modèle théorique de la forme de vie la plus simple nécessite trois mécanismes interdépendants :

a) un cycle métabolique, pour transformer la nourriture en énergie

b)  la réplication des gabarits, pour la reproduction du modèle ;

c) une membrane, pour délimiter l'organisme.

Avec ce processus en 5 phases

1 Les molécules sont absorbées de l'environnement par le métabolisme

2 Le cycle métabolique produit d'abord des éléments pour renforcer sa menbrane

3  Le cylce métabolique use des molécules pour constituer sa réplique

4  La réplique produit une substance chimique qui est un composant clé de la membrane.

5 Les parties non utilisées des molécules sont éjectée à l'extérieur de la menbrane principale

Mais Tibor Ganti avait proposé une autre voie deux décennies plus tôt.

Il était né en 1933 dans la petite ville de Vác, dans le centre de la Hongrie. Ses débuts ayant été marqués par des conflits. La Hongrie s'est alliée à l'Allemagne nazie pendant la Seconde Guerre mondiale, mais en 1945, son armée a été vaincue par l'Union soviétique. Le régime totalitaire dominera l'Eurasie orientale pendant des décennies, la Hongrie devenant un État satellite, comme la plupart des autres pays d'Europe de l'Est.

Fasciné par la nature des êtres vivants, Gánti a étudié l'ingénierie chimique avant de devenir biochimiste industriel. En 1966, il a publié un livre sur la biologie moléculaire intitulé Forradalom az Élet Kutatásában, ou Révolution dans la recherche sur la vie, qui est resté pendant des années un manuel universitaire dominant, en partie parce qu'il n'y en avait pas beaucoup d'autres. L'ouvrage posait la question de savoir si la science comprenait comment la vie était organisée et concluait que ce n'était pas le cas.

En 1971, Gánti aborda le problème de front dans un nouveau livre, Az Élet Princípiuma, ou Les principes de la vie. Publié uniquement en hongrois, ce livre contient la première version de son modèle de chimiotactisme, qui décrit ce qu'il considère comme l'unité fondamentale de la vie. Toutefois, ce premier modèle d'organisme était incomplet et il lui a fallu trois années supplémentaires pour publier ce qui est aujourd'hui considéré comme la version définitive, toujours en hongrois, dans un document qui n'est pas disponible en ligne.

L'année du miracle

Globalement, 1971 a été une année faste pour la recherche sur l'origine de la vie. Outre les travaux de Gánti, la science a proposé deux autres modèles théoriques importants.

Le premier est celui du biologiste théoricien américain Stuart Kauffman, qui soutient que les organismes vivants doivent être capables de se copier eux-mêmes. En spéculant sur la manière dont cela aurait pu fonctionner avant la formation des cellules, il s'est concentré sur les mélanges de produits chimiques.

Supposons que le produit chimique A entraîne la formation du produit chimique B, qui entraîne à son tour la formation du produit chimique C, et ainsi de suite, jusqu'à ce qu'un élément de la chaîne produise une nouvelle version du produit chimique A. Après un cycle, il existera deux copies de chaque ensemble de produits chimiques. Si les matières premières sont suffisantes, un autre cycle produira quatre copies et continuera de manière exponentielle.

Kauffman a appelé un tel groupe un "ensemble autocatalytique" et il a soutenu que de tels groupes de produits chimiques auraient pu constituer la base de la première vie, les ensembles devenant plus complexes jusqu'à ce qu'ils produisent et utilisent une série de molécules complexes, telles que l'ADN.

Dans la seconde idée, le chimiste allemand Manfred Eigen a décrit ce qu'il a appelé un "hypercycle", dans lequel plusieurs ensembles autocatalytiques se combinent pour en former un seul plus grand. La variante d'Eigen introduit une distinction cruciale : Dans un hypercycle, certains des produits chimiques sont des gènes et sont donc constitués d'ADN ou d'un autre acide nucléique, tandis que d'autres sont des protéines fabriquées sur mesure en fonction des informations contenues dans les gènes. Ce système pourrait évoluer en fonction des changements - mutations - dans les gènes, une fonction qui manquait au modèle de Kauffman.

Gánti était arrivé indépendamment à une notion similaire, mais il l'a poussée encore plus loin. Selon lui, deux processus clés doivent se dérouler dans chaque organisme vivant. Premièrement, il doit construire et entretenir son corps, c'est-à-dire qu'il a besoin d'un métabolisme. Deuxièmement, il doit disposer d'une sorte de système de stockage de l'information, tel qu'un ou plusieurs gènes, qui peuvent être copiés et transmis à la descendance.

La première version du modèle de Gánti consistait essentiellement en deux ensembles autocatalytiques aux fonctions distinctes qui se combinaient pour former un ensemble autocatalytique plus important, ce qui n'est pas si différent de l'hypercycle d'Eigen. Cependant, l'année suivante, Gánti a été interrogé par un journaliste qui a mis en évidence une faille importante. Gánti supposait que les deux systèmes étaient basés sur des produits chimiques flottant dans l'eau. Or, laissés à eux-mêmes, ils s'éloigneraient les uns des autres et le chimiotone "mourrait".

La seule solution était d'ajouter un troisième système : une barrière extérieure pour les contenir. Dans les cellules vivantes, cette barrière est une membrane composée de substances chimiques ressemblant à des graisses, appelées lipides. Le chimiotone devait posséder une telle barrière pour se maintenir, et Gánti en a conclu qu'il devait également être autocatalytique pour pouvoir se maintenir et croître.

Voici enfin le chimiotone complet, le concept de Gánti de l'organisme vivant le plus simple possible : gènes, métabolisme et membrane, tous liés. Le métabolisme produit des éléments de construction pour les gènes et la membrane, et les gènes exercent une influence sur la membrane. Ensemble, ils forment une unité autoreproductible : une cellule si simple qu'elle pourrait non seulement apparaître avec une relative facilité sur Terre, mais qu'elle pourrait même rendre compte de biochimies alternatives sur des mondes extraterrestres.

Un modèle oublié

"Gánti a très bien saisi la vie", déclare le biologiste synthétique Nediljko Budisa, de l'université du Manitoba à Winnipeg, au Canada. "Sa lecture a été une révélation. Cependant, Budisa n'a découvert le travail de Gánti que vers 2005. En dehors de l'Europe de l'Est, l'ouvrage est resté obscur pendant des décennies, avec seulement quelques traductions anglaises sur le marché.

Le chimiotactisme est apparu en anglais en 1987, dans un livre de poche avec une traduction assez approximative, explique James Griesemer, de l'université de Californie, à Davis. Peu de gens l'ont remarqué. Szathmáry a ensuite donné au chimiotone une place de choix dans son livre de 1995, The Major Transitions in Evolution, coécrit avec John Maynard Smith. Cela a conduit à une nouvelle traduction anglaise du livre de Gánti de 1971, avec du matériel supplémentaire, publiée en 2003. Mais le chimiotone est resté dans une niche, et six ans plus tard, Gánti est mort.

Dans une certaine mesure, Gánti n'a pas aidé son modèle à s'imposer : il était connu pour être un collègue difficile. Selon Szathmáry, Gánti était obstinément attaché à son modèle, et paranoïaque de surcroît, ce qui le rendait "impossible à travailler".

Mais le plus gros problème du modèle chimiotactique est peut-être que, dans les dernières décennies du XXe siècle, la tendance de la recherche était de supprimer la complexité de la vie au profit d'approches de plus en plus minimalistes.

Par exemple, l'une des hypothèses les plus en vogue aujourd'hui est que la vie a commencé uniquement avec l'ARN, un proche cousin de l'ADN.

Comme son parent moléculaire plus célèbre, l'ARN peut porter des gènes. Mais l'ARN peut aussi agir comme une enzyme et accélérer les réactions chimiques, ce qui a conduit de nombreux experts à affirmer que la première vie n'avait besoin que d'ARN pour démarrer. Cependant, cette hypothèse du monde de l'ARN a été repoussée, notamment parce que la science n'a pas trouvé de type d'ARN capable de se copier sans aide - pensons aux virus à ARN comme le coronavirus, qui ont besoin de cellules humaines pour se reproduire.

D'autres chercheurs ont soutenu que la vie a commencé avec des protéines et rien d'autre, ou des lipides et rien d'autre. Ces idées sont très éloignées de l'approche intégrée de Gánti.

Un véritable chimiotactisme ?

Cependant, les scientifiques de ce siècle ont inversé la tendance. Les chercheurs ont désormais tendance à mettre l'accent sur la façon dont les substances chimiques de la vie fonctionnent ensemble et sur la manière dont ces réseaux coopératifs ont pu émerger.

Depuis 2003, Jack Szostak, de la Harvard Medical School, et ses collègues ont construit des protocellules de plus en plus réalistes : des versions simples de cellules contenant une série de substances chimiques. Ces protocellules peuvent croître et se diviser, ce qui signifie qu'elles peuvent s'autoreproduire.

En 2013, Szostak et Kate Adamala, alors étudiante, ont persuadé l'ARN de se copier à l'intérieur d'une protocellule. De plus, les gènes et la membrane peuvent être couplés : lorsque l'ARN s'accumule à l'intérieur, il exerce une pression sur la membrane extérieure, ce qui encourage la protocellule à s'agrandir.

Les recherches de Szostak "ressemblent beaucoup à celles de Gánti", déclare Petra Schwille, biologiste synthétique à l'Institut Max Planck de biochimie de Martinsried, en Allemagne. Elle souligne également les travaux de Taro Toyota, de l'université de Tokyo au Japon, qui a fabriqué des lipides à l'intérieur d'une protocellule, de sorte que celle-ci puisse développer sa propre membrane.

L'un des arguments avancés contre l'idée d'un chimiotone comme première forme de vie est qu'il nécessite un grand nombre de composants chimiques, notamment des acides nucléiques, des protéines et des lipides. De nombreux experts ont estimé qu'il était peu probable que ces substances chimiques soient toutes issues des mêmes matériaux de départ au même endroit, d'où l'attrait d'idées simples comme celle du monde de l'ARN.

Mais des biochimistes ont récemment trouvé des preuves que toutes les substances chimiques clés de la vie peuvent se former à partir des mêmes matériaux de départ simples. Dans une étude publiée en septembre, des chercheurs dirigés par Sara Szymkuć, alors à l'Académie polonaise des sciences à Varsovie, ont compilé une base de données à partir de décennies d'expériences visant à fabriquer les éléments chimiques de base de la vie. En partant de six produits chimiques simples, comme l'eau et le méthane, Szymkuć a découvert qu'il était possible de fabriquer des dizaines de milliers d'ingrédients clés, y compris les composants de base des protéines et de l'ARN.

Aucune de ces expériences n'a encore permis de construire un chimiotone fonctionnel. C'est peut-être simplement parce que c'est difficile, ou parce que la formulation exacte de Gánti ne correspond pas tout à fait à la façon dont la première vie a fonctionné. Quoi qu'il en soit, le chimiotone nous permet de réfléchir à la manière dont les composants de la vie fonctionnent ensemble, ce qui oriente de plus en plus les approches actuelles visant à comprendre comment la vie est apparue.

Il est révélateur, ajoute Szathmáry, que les citations des travaux de Gánti s'accumulent rapidement. Même si les détails exacts diffèrent, les approches actuelles de l'origine de la vie sont beaucoup plus proches de ce qu'il avait à l'esprit - une approche intégrée qui ne se concentre pas sur un seul des systèmes clés de la vie.

"La vie n'est pas une protéine, la vie n'est pas un ARN, la vie n'est pas une bicouche lipidique", explique M. Griesemer. "Qu'est-ce que c'est ? C'est l'ensemble de ces éléments reliés entre eux selon la bonne organisation.


Auteur: Internet

Info: https://www.nationalgeographic.com, 14 déc. 2020, par Michael Marshall

[ origine du vivant ] [ mécanisme ] [ matérialisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

paliers bayésiens

Une nouvelle preuve montre que les graphiques " expandeurs " se synchronisent

La preuve établit de nouvelles conditions qui provoquent une synchronisation synchronisée des oscillateurs connectés.

Il y a six ans, Afonso Bandeira et Shuyang Ling tentaient de trouver une meilleure façon de discerner les clusters dans d'énormes ensembles de données lorsqu'ils sont tombés sur un monde surréaliste. Ling s'est rendu compte que les équations qu'ils avaient proposées correspondaient, de manière inattendue, parfaitement à un modèle mathématique de synchronisation spontanée. La synchronisation spontanée est un phénomène dans lequel des oscillateurs, qui peuvent prendre la forme de pendules, de ressorts, de cellules cardiaques humaines ou de lucioles, finissent par se déplacer de manière synchronisée sans aucun mécanisme de coordination central.

Bandeira, mathématicien à l' École polytechnique fédérale de Zurich , et Ling, data scientist à l'Université de New York , se sont plongés dans la recherche sur la synchronisation, obtenant une série de résultats remarquables sur la force et la structure que doivent avoir les connexions entre oscillateurs pour forcer les oscillateurs. à synchroniser. Ce travail a abouti à un article d'octobre dans lequel Bandeira a prouvé (avec cinq co-auteurs) que la synchronisation est inévitable dans des types spéciaux de réseaux appelés graphes d'expansion, qui sont clairsemés mais également bien connectés.

Les graphiques expanseurs s'avèrent avoir de nombreuses applications non seulement en mathématiques, mais également en informatique et en physique. Ils peuvent être utilisés pour créer des codes correcteurs d’erreurs et pour déterminer quand les simulations basées sur des nombres aléatoires convergent vers la réalité qu’elles tentent de simuler. Les neurones peuvent être modélisés dans un graphique qui, selon certains chercheurs, forme un expanseur, en raison de l'espace limité pour les connexions à l'intérieur du cerveau. Les graphiques sont également utiles aux géomètres qui tentent de comprendre comment parcourir des surfaces compliquées , entre autres problèmes.

Le nouveau résultat " donne vraiment un aperçu considérable des types de structures graphiques qui vont garantir la synchronisation ", a déclaré Lee DeVille , un mathématicien de l'Université de l'Illinois qui n'a pas participé aux travaux. 

Synchronisation douce-amère         

"La synchronisation est vraiment l'un des phénomènes fondamentaux de la nature", a déclaré Victor Souza , un mathématicien de l'Université de Cambridge qui a travaillé avec Bandeira sur l'article. Pensez aux cellules stimulateurs cardiaques de votre cœur, qui synchronisent leurs pulsations via des signaux électriques. Lors d'expériences en laboratoire, "vous pouvez faire vibrer des centaines ou des milliers de cellules embryonnaires de stimulateur cardiaque à l'unisson", a déclaré Steven Strogatz , mathématicien à l'Université Cornell et autre co-auteur. " C'est un peu effrayant parce que ce n'est pas un cœur entier ; c'est juste au niveau des cellules."

En 1975, le physicien japonais Yoshiki Kuramoto a introduit un modèle mathématique décrivant ce type de système. Son modèle fonctionne sur un réseau appelé graphe, où les nœuds sont reliés par des lignes appelées arêtes. Les nœuds sont appelés voisins s’ils sont liés par une arête. Chaque arête peut se voir attribuer un numéro appelé poids qui code la force de la connexion entre les nœuds qu’elle connecte.

Dans le modèle de synchronisation de Kuramoto, chaque nœud contient un oscillateur, représenté par un point tournant autour d'un cercle. Ce point montre, par exemple, où se trouve une cellule cardiaque dans son cycle de pulsation. Chaque oscillateur tourne à sa propre vitesse préférée. Mais les oscillateurs veulent également correspondre à leurs voisins, qui peuvent tourner à une fréquence différente ou à un moment différent de leur cycle. (Le poids du bord reliant deux oscillateurs mesure la force du couplage entre eux.) S'écarter de ces préférences contribue à l'énergie dépensée par un oscillateur. Le système tente d'équilibrer tous les désirs concurrents en minimisant son énergie totale. La contribution de Kuramoto a été de simplifier suffisamment ces contraintes mathématiques pour que les mathématiciens puissent progresser dans l'étude du système. Dans la plupart des cas, de tels systèmes d’équations différentielles couplées sont pratiquement impossibles à résoudre.

Malgré sa simplicité, le modèle Kuramoto s'est révélé utile pour modéliser la synchronisation des réseaux, du cerveau aux réseaux électriques, a déclaré Ginestra Bianconi , mathématicienne appliquée à l'Université Queen Mary de Londres. "Dans le cerveau, ce n'est pas particulièrement précis, mais on sait que c'est très efficace", a-t-elle déclaré.

"Il y a ici une danse très fine entre les mathématiques et la physique, car un modèle qui capture un phénomène mais qui est très difficile à analyser n'est pas très utile", a déclaré Souza.

Dans son article de 1975, Kuramoto supposait que chaque nœud était connecté à tous les autres nœuds dans ce qu'on appelle un graphe complet. À partir de là, il a montré que pour un nombre infini d’oscillateurs, si le couplage entre eux était suffisamment fort, il pouvait comprendre leur comportement à long terme. Faisant l'hypothèse supplémentaire que tous les oscillateurs avaient la même fréquence (ce qui en ferait ce qu'on appelle un modèle homogène), il trouva une solution dans laquelle tous les oscillateurs finiraient par tourner simultanément, chacun arrondissant le même point de son cercle exactement au même endroit. en même temps. Même si la plupart des graphiques du monde réel sont loin d'être complets, le succès de Kuramoto a conduit les mathématiciens à se demander ce qui se passerait s'ils assouplissaient ses exigences.  

Mélodie et silence

Au début des années 1990, avec son élève Shinya Watanabe , Strogatz a montré que la solution de Kuramoto était non seulement possible, mais presque inévitable, même pour un nombre fini d'oscillateurs. En 2011, Richard Taylor , de l'Organisation australienne des sciences et technologies de la défense, a renoncé à l'exigence de Kuramoto selon laquelle le graphique devait être complet. Il a prouvé que les graphes homogènes où chaque nœud est connecté à au moins 94 % des autres sont assurés de se synchroniser globalement. Le résultat de Taylor avait l'avantage de s'appliquer à des graphes avec des structures de connectivité arbitraires, à condition que chaque nœud ait un grand nombre de voisins.

En 2018, Bandeira, Ling et Ruitu Xu , un étudiant diplômé de l'Université de Yale, ont abaissé à 79,3 % l'exigence de Taylor selon laquelle chaque nœud doit être connecté à 94 % des autres. En 2020, un groupe concurrent a atteint 78,89 % ; en 2021, Strogatz, Alex Townsend et Martin Kassabov ont établi le record actuel en démontrant que 75 % suffisaient.

Pendant ce temps, les chercheurs ont également attaqué le problème dans la direction opposée, en essayant de trouver des graphiques hautement connectés mais non synchronisés globalement. Dans une série d'articles de 2006 à 2022 , ils ont découvert graphique après graphique qui pourraient éviter la synchronisation globale, même si chaque nœud était lié à plus de 68 % des autres. Beaucoup de ces graphiques ressemblent à un cercle de personnes se tenant la main, où chaque personne tend la main à 10, voire 100 voisins proches. Ces graphiques, appelés graphiques en anneaux, peuvent s'installer dans un état dans lequel chaque oscillateur est légèrement décalé par rapport au suivant.

De toute évidence, la structure du graphique influence fortement la synchronisation. Ling, Xu et Bandeira sont donc devenus curieux des propriétés de synchronisation des graphiques générés aléatoirement. Pour rendre leur travail précis, ils ont utilisé deux méthodes courantes pour construire un graphique de manière aléatoire.

Le premier porte le nom de Paul Erdős et Alfréd Rényi, deux éminents théoriciens des graphes qui ont réalisé des travaux fondateurs sur le modèle. Pour construire un graphique à l'aide du modèle Erdős-Rényi, vous commencez avec un groupe de nœuds non connectés. Ensuite, pour chaque paire de nœuds, vous les reliez au hasard avec une certaine probabilité p . Si p vaut 1 %, vous liez les bords 1 % du temps ; si c'est 50 %, chaque nœud se connectera en moyenne à la moitié des autres.

Si p est légèrement supérieur à un seuil qui dépend du nombre de nœuds dans le graphique, le graphique formera, avec une très grande probabilité, un réseau interconnecté (au lieu de comprendre des clusters qui ne sont pas reliés). À mesure que la taille du graphique augmente, ce seuil devient minuscule, de sorte que pour des graphiques suffisamment grands, même si p est petit, ce qui rend le nombre total d'arêtes également petit, les graphiques d'Erdős-Rényi seront connectés.

Le deuxième type de graphe qu’ils ont considéré est appelé graphe d -régulier. Dans de tels graphes, chaque nœud a le même nombre d’arêtes, d . (Ainsi, dans un graphe 3-régulier, chaque nœud est connecté à 3 autres nœuds, dans un graphe 7-régulier, chaque nœud est connecté à 7 autres, et ainsi de suite.)

(Photo avec schéma)

Les graphiques bien connectés bien qu’ils soient clairsemés (n’ayant qu’un petit nombre d’arêtes) sont appelés graphiques d’expansion. Celles-ci sont importantes dans de nombreux domaines des mathématiques, de la physique et de l'informatique, mais si vous souhaitez construire un graphe d'expansion avec un ensemble particulier de propriétés, vous constaterez qu'il s'agit d'un " problème étonnamment non trivial ", selon l'éminent mathématicien. Terry Tao. Les graphes d'Erdős-Rényi, bien qu'ils ne soient pas toujours extensibles, partagent bon nombre de leurs caractéristiques importantes. Et il s'avère cependant que si vous construisez un graphe -régulier et connectez les arêtes de manière aléatoire, vous obtiendrez un graphe d'expansion.

Joindre les deux bouts

En 2018, Ling, Xu et Bandeira ont deviné que le seuil de connectivité pourrait également mesurer l'émergence d'une synchronisation globale : si vous générez un graphique d'Erdős-Rényi avec p juste un peu plus grand que le seuil, le graphique devrait se synchroniser globalement. Ils ont fait des progrès partiels sur cette conjecture, et Strogatz, Kassabov et Townsend ont ensuite amélioré leur résultat. Mais il subsiste un écart important entre leur nombre et le seuil de connectivité.

En mars 2022, Townsend a rendu visite à Bandeira à Zurich. Ils ont réalisé qu'ils avaient une chance d'atteindre le seuil de connectivité et ont fait appel à Pedro Abdalla , un étudiant diplômé de Bandeira, qui à son tour a enrôlé son ami Victor Souza. Abdalla et Souza ont commencé à peaufiner les détails, mais ils se sont rapidement heurtés à des obstacles.

Il semblait que le hasard s’accompagnait de problèmes inévitables. À moins que p ne soit significativement plus grand que le seuil de connectivité, il y aurait probablement des fluctuations sauvages dans le nombre d'arêtes de chaque nœud. L'un peut être attaché à 100 arêtes ; un autre pourrait être attaché à aucun. "Comme pour tout bon problème, il riposte", a déclaré Souza. Abdalla et Souza ont réalisé qu'aborder le problème du point de vue des graphiques aléatoires ne fonctionnerait pas. Au lieu de cela, ils utiliseraient le fait que la plupart des graphes d’Erdős-Rényi sont des expanseurs. "Après ce changement apparemment innocent, de nombreuses pièces du puzzle ont commencé à se mettre en place", a déclaré Souza. "En fin de compte, nous obtenons un résultat bien meilleur que ce à quoi nous nous attendions." Les graphiques sont accompagnés d'un nombre appelé expansion qui mesure la difficulté de les couper en deux, normalisé à la taille du graphique. Plus ce nombre est grand, plus il est difficile de le diviser en deux en supprimant des nœuds.

Au cours des mois suivants, l’équipe a complété le reste de l’argumentation en publiant son article en ligne en octobre. Leur preuve montre qu'avec suffisamment de temps, si le graphe a suffisamment d'expansion, le modèle homogène de Kuramoto se synchronisera toujours globalement.

Sur la seule route

L’un des plus grands mystères restants de l’étude mathématique de la synchronisation ne nécessite qu’une petite modification du modèle présenté dans le nouvel article : que se passe-t-il si certaines paires d’oscillateurs se synchronisent, mais que d’autres s’en écartent ? Dans cette situation, " presque tous nos outils disparaissent immédiatement ", a déclaré Souza. Si les chercheurs parviennent à progresser sur cette version du problème, ces techniques aideront probablement Bandeira à résoudre les problèmes de regroupement de données qu’il avait entrepris de résoudre avant de se tourner vers la synchronisation.

Au-delà de cela, il existe des classes de graphiques outre les extensions, des modèles plus complexes que la synchronisation globale et des modèles de synchronisation qui ne supposent pas que chaque nœud et chaque arête sont identiques. En 2018, Saber Jafarpour et Francesco Bullo de l'Université de Californie à Santa Barbara ont proposé un test de synchronisation globale qui fonctionne lorsque les rotateurs n'ont pas de poids ni de fréquences préférées identiques. L'équipe de Bianconi et d'autres ont travaillé avec des réseaux dont les liens impliquent trois, quatre nœuds ou plus, plutôt que de simples paires.

Bandeira et Abdalla tentent déjà d'aller au-delà des modèles Erdős-Rényi et d -regular vers d'autres modèles de graphes aléatoires plus réalistes. En août dernier, ils ont partagé un article , co-écrit avec Clara Invernizzi, sur la synchronisation dans les graphes géométriques aléatoires. Dans les graphes géométriques aléatoires, conçus en 1961, les nœuds sont dispersés de manière aléatoire dans l'espace, peut-être sur une surface comme une sphère ou un plan. Les arêtes sont placées entre des paires de nœuds s'ils se trouvent à une certaine distance les uns des autres. Leur inventeur, Edgar Gilbert, espérait modéliser des réseaux de communication dans lesquels les messages ne peuvent parcourir que de courtes distances, ou la propagation d'agents pathogènes infectieux qui nécessitent un contact étroit pour se transmettre. Des modèles géométriques aléatoires permettraient également de mieux capturer les liens entre les lucioles d'un essaim, qui se synchronisent en observant leurs voisines, a déclaré Bandeira.

Bien entendu, relier les résultats mathématiques au monde réel est un défi. "Je pense qu'il serait un peu mensonger de prétendre que cela est imposé par les applications", a déclaré Strogatz, qui a également noté que le modèle homogène de Kuramoto ne peut jamais capturer la variation inhérente aux systèmes biologiques. Souza a ajouté : " Il y a de nombreuses questions fondamentales que nous ne savons toujours pas comment résoudre. C'est plutôt comme explorer la jungle. " 



 

Auteur: Internet

Info: https://www.quantamagazine.org - Leïla Sloman, 24 juillet 2023

[ évolution ]

 

Commentaires: 0

Ajouté à la BD par miguel