Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 36
Temps de recherche: 0.0643s

10 commandements

C’est le fameux commandement qui s’exprime ainsi, il fait toujours sourire, à bien y réfléchir on ne sourit pas longtemps :

"Tu ne convoiteras point la maison de ton prochain, tu ne convoiteras point la femme de ton prochain, ni son serviteur, ni sa servante, ni son bœuf, ni son âne, ni rien de ce qui appartient à ton prochain."

Assurément, la mise de la femme entre la maison et le bourricot est quelque chose qui a suggéré à plus d’un l’idée de ce qu’on pouvait voir là les exigences d’une société primitive : des Bédouins quoi, des Bicots, des Ratons... Eh bien, je ne pense pas. Je veux dire que si, effectivement, cette loi, toujours en fin de compte vivante dans le cœur d’hommes qui la violent chaque jour, bien entendu, au moins concernant ce dont il s’agit quand il s’agit de la femme de son prochain, doit sans doute avoir quelque rapport avec ce qui est notre objet ici, à savoir das Ding.

Car il ne s’agit point ici de n’importe quel bien. Il ne s’agit point de ce qui fait la loi de l’échange, et couvre d’une légalité, si l’on peut dire amusante, d’une Sicherung sociale, les mouvements, impetus, des instincts humains. Il s’agit de quelque chose qui prend sa valeur de ce qu’aucun de ces objets n’est sans avoir le rapport le plus étroit avec ce dans quoi l’être humain peut se reposer comme étant der Trug. Das Ding non pas en tant qu’elle est son bien, mais le bien où il se repose.

J’ajoute, en tant que c’est la loi, la loi de la parole dans son origine la plus primitive, en ce sens que ce das Ding était là au commencement, que c’est la première chose qui a pu se séparer de tout ce qu’il a commencé de nommer et d’articuler. Que c’est pour autant que ce das Ding est le corrélatif même de la loi de la parole, que la convoitise même dont il s’agit c’est une convoitise qui s’adresse non pas à n’importe quoi que je désire, mais à quelque chose en tant qu’elle est la Chose de mon prochain.

C’est pour autant qu’elle préserve cette distance de la Chose en tant que fondée par la parole elle–même que ce commandement prend son poids et sa valeur.

Auteur: Lacan Jacques

Info: 23 décembre 1959, L'Ethique

[ fondement ] [ ajustement ] [ régulation ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

lecture analytique FLP

FLP sera aussi éventuellement un moyen de voir combien - pour ce qui est du langage - nous sommes préprogrammés par nos familles-milieux-civilisations-époques et donc à quel point il est difficile de prendre quelque distance avec le carcan intégré de toutes les forces-pouvoirs sémantiques qui ont précédé afin de nous libérer quelque peu de toute l'inertie des dogmes fondateurs (Vedanta, Aristote, religions, modes, politiques, etc) et surtout de la logique duale - pulsionnelle - qui les sous-tend.

Ici en remettant en cause la linéarité des écrits, en cassant les lignes, puisque le lecteur observateur se retrouve face au collisionnement de pensées-mots horizontales, linéaires et subjectives, avec d'autres pensées-mots, verticales et objectivées par FLP (nuage de corrélat, liaisons, chaines). Ainsi l'application secoue le cocotier des habitudes du lire-réfléchir et surtout les ouvre (tente de mieux les coordonner ?), en les intriquant. 

Il y a ensuite une double action demandée au lecteur-analyste-inserteur. Une action qui prend du temps.

a) vers l'extérieur : en utilisant l'immense lexique multidimentionnel du Web afin de mieux comprendre le texte en vérifiant la ou les significations d'un mot (on tombe sur un terme créole pour, avec une astérisque, en donner le sens dans les infos). Ou aller au fond de l'étymologie. Ou pour croiser et recouper les sources, etc.

b) vers l'intérieur, en lisant attentivement, souvent plusieurs fois, parfois en reprenant un extrait plus tard. Ici on verra comment l'interprétation de nos pensées-mots et autres idées d'étiquettes peuvent être fugaces, instables, relatives... ondoyantes, subjectives... préformatées... Heureusement se dégage aussi une sorte de colonne vertébrale de notre pensée, en étant sincère avec nous-même, qui conduira la discussion intérieure vers le consensus. Vers l'intérieur aussi en usant de la machine en rétroaction, c'est à dire en prenant quelques mots-termes-vocables (souvent en n'usant que des radicaux des termes) pour une recherche FLP (et parfois, pourquoi pas, sur Google) pour ainsi comparer, et "voir" certaines situations-significations qui nous ont échappés pour ce qui est de la conjonction de ces items. Ou même de leur agencement et/ou de la grammaire.

Viennent ensuite les éventuelles discussions avec d'autres participants de FLP pour corriger, élargir et affermir le consensus sémantique. Mais stop.

Et puis il y a les textes que le participant des Fils de La Pensée traduit. Stop ici aussi.

Là encore nous ne résistons pas au plaisir de plaider pour une forme de logique élargie - indépendante de son propre langage - qui s'inspire du fonctionnement de l'atome du carbone duquel nous sommes tous issus. Cette logique en base 4, offre la souplesse de fonctionnement sans pareille d'un double dualisme invertible. Elle nous aidera peut-être à avancer en tant que race soi-disant intelligente. Allons savoir.  Au-delà de C. S. Peirce, nous essayons d'aller dans ce sens.

Tétravalence qui, dans ce grand jeu exploratoire et tâtonnant de FLP et de la vie orthogonale (qui individualise et généralise en même temps), pourra être mise en analogie, entre autres, avec le double dualisme homme-femmes. Ou avec les règles de base du contrepoint musical. Voire, plus simplement, avec le système dentaire d'une immense partie du monde vivant (machoires inférieures et supérieures qui matérialisent un double système inversé).

Auteur: Mg

Info: septembre 2022

[ prospective ] [ citation s'appliquant à ce logiciel ] [ slow slow thinking ] [ réflexion ] [ profondeur ] [ distanciation ] [ pré-mémétique ]

 
Commentaires: 1
Ajouté à la BD par miguel

monde subatomique

Des physiciens comprennent enfin pourquoi l’interaction forte est si tenace 

Il existe quatre forces fondamentales : la force de gravité, l’électromagnétisme, l’interaction faible et l’interaction (ou force) forte. Cette dernière est la plus intense. L’interaction forte agit en liant les quarks au sein des protons et des neutrons. Elle maintient ainsi les nucléons ensemble pour former des noyaux atomiques. La force forte est jusqu’à 100 000 milliards de milliards de fois plus intense que la force de gravité. Malgré cette intensité, elle est relativement peu comprise, par rapport aux autres forces. Récemment, des chercheurs ont percé l’un des mystères de l’interaction forte expliquant sa ténacité et sont notamment parvenus à la mesurer de façon plus précise.

L’interaction forte est quantifiée par la constante de couplage (que les auteurs de l’étude choisissent d’appeler simplement " couplage "), notée αs (alpha s). Il s’agit d’un paramètre fondamental dans la théorie de la chromodynamique quantique (QCD).

La difficulté de la mesure de αs réside principalement dans sa nature très variable : plus deux quarks sont éloignés, plus le couplage est élevé, et plus l’attraction entre eux devient forte. À des distances faibles, où αs est encore faible, les physiciens parviennent à appliquer des méthodes de calcul basique pour déterminer le couplage. Cependant, ces techniques deviennent inefficaces à des distances plus importantes. Dans une nouvelle étude, des physiciens ont ainsi réussi à appliquer de nouvelles méthodes pour mieux déterminer αs à des distances plus importantes. 

Un calcul basé sur l’intégrale de Bjorken

Poussé par sa curiosité, l’un des chercheurs a testé l’utilisation de l’intégrale de Bjorken pour prédire αs sur de longues distances. Cette méthode permet de définir des paramètres relatifs à la rotation de la structure des nucléons et ainsi de calculer le couplage de la force forte à courte distance. Le scientifique ne s’attendait donc pas à faire une découverte de ce calibre en faisant cet essai. Pourtant, contre toute attente, ses résultats ont montré qu’à un moment donné, αs cesse d’augmenter pour devenir constant. Il a ainsi partagé ses découvertes avec son mentor qui avait, lui aussi, obtenu des résultats similaires dans des travaux antérieurs.

 "Ce fut une chance, car même si personne ne s’en était encore rendu compte, l’intégrale de Bjorken est particulièrement adaptée aux calculs de αs sur de longues distances ", déclarent les chercheurs dans un article du Scientific American. Les résultats ont été présentés lors de diverses conférences de physique, durant l’une desquelles l’auteur principal a rencontré un autre physicien, Stanley Brodsky, qui aurait appuyé les résultats obtenus.

Une méthode par holographie

En parallèle à cette découverte, d’autres physiciens ont travaillé sur la mise au point d’une autre méthode de calcul de αs sur de longues distances, qu’ils ont appelée " holographie du front lumineux ". L’holographie est une technique mathématique qui a initialement été développée dans le contexte de la théorie des cordes et de la physique des trous noirs.

Cependant, en physique des particules, elle sert à modéliser des phénomènes en quatre dimensions (incluant les trois dimensions spatiales et une dimension temporelle) en se basant sur des calculs effectués dans un espace à cinq dimensions. Dans cette méthode, la cinquième dimension n’est pas nécessairement une dimension physique réelle, mais peut servir d’outil mathématique pour faciliter les calculs. L’idée est que certaines équations complexes en quatre dimensions peuvent devenir plus simples ou plus intuitives quand elles sont envisagées dans un espace à cinq dimensions.

Auteur: Internet

Info: https://trustmyscience.com/ - Miotisoa Randrianarisoa & J. Paiano·15 avril 2024

[ gluons ] [ force de cohésion nucléaire ]

 

Commentaires: 0

Ajouté à la BD par miguel

prospective

Le langage est dangereux dans la mesure où il permet de tout justifier, de tout expliquer... de se perdre, de fuir... D'enfumer les personnes moins au fait d'armes rhétoriques qui, suite à l'arrivée de La Bombe, sont devenues plus agissantes et importantes que le métal qui coupe et transperce ou le fusil qui tue à distance. 

Vue sous cet angle l'opinion est comme une femme, une fois son esprit capté, ou mieux, son âme formatée, le gros du travail est fait. Pour autant qu'on assure un minimum d'affection et de confort ensuite. (Non, stop, pitié...   arrêtez de cogner les filles, on peut inverser  ou mélanger les genres ici)

Nous sommes dans la continuelle bascule de notre évolution collective, à un point où expression abstraite et théorie ont pris le pas sur une pratique brutale ensuite mise en mots. 

Tout le monde sait la fragilité de l'édifice, il suffit d'imaginer une ville comme Paris sans approvisionnement pendant une semaine... Si ce système craque de manière générale ce sera l'enfer.

A l'heure d'une société de communication globale ce n'est pas pour rien que les "éléments de langages" sont devenus primordiaux. Réitérés ad infinitum (voir pour le Co-vid) ils montrent une fois encore l'importance décisive de l'information et de la création du consensus. Les politiques, Google, FB et  autres gouvernements/réseaux sociaux sont évidemment controlés par des gens au courant de celà. Il suffit d'une logique de base (le CO-vid ça tue) accompagnée d'une majorité d'éléments sémantiques qui vont dans ce sens, et le tour est joué. 

Nous autres mammifères glabres en équilibre sur deux membres sommes à un stade si peu avancé de développement qu'une simple logique duale, pulsionnelle binaire - celle qui sous-tend tous nos raisonnements et langages - est très aisée à orienter. 

Reste qu'il faudrait quand même parvenir à établir, peu ou prout, et au jour le jour si possible (en contact avec le réel donc), un minimum de cohérence au sein de cette triade : a) codage de la réalité par le langage, b) les pratiques/impacts d'humains qui sont organisés par lui. C) l'interaction avec le reste de la réalité qui en résulte - c'est à dire l'impact sur le reste de la vie sur terre pour être pragmatique. 

Je ne crois pas que l'humain soit au centre. 

Sauf pour lui-même, successivement conforté qu'il fut par des constructions sémantiques collectives établies par lui seul. Il s'est éloigné - en tant qu'espèce - d'une appartenance/collaboration globale avec les infinis développements de la vie - pour l'instant terrestre. (Lisez Kropotkine)

Certes on voit un sursaut actuellement, l'avenir s'assombrit, noirceur souvent confortée par des vieux (certains ne voient pas même qu'ils confondent/mélangent leur crépuscule singulier avec cet avenir inquiétant). Il y a donc place pour l'optimisme. 

Mais ce n'est pas assez, de beaucoup.

L'anthropocentrisme a mené où nous sommes, appuyé sur des fondements sémantiques, évidemment collectifs, sous-tendus par une hiérarchisation insensée. 

Comment imaginer un changement, une déviation de ceci ? 

Peut-être en refondant une grammaire de base où le "je", toujours humain, ou dominant (secondéité), puisse être mieux attribué et réparti dans ce qui fonde le codage du réel de notre civilisation humaine (tiercité anthropocentrique). Notre mémoire/réflexion - collective parce qu'externalisable comme ce court texte, est biaisée. 

Dans un univers où tout est information et interactions il y a clairement, sur ce point précis, un déficit structurel, un déséquilibre interne au sein de la monade humaine qui, s'il n'est pas corrigé, l'empêchera de s'intégrer correctement au reste du cosmos. 

Il faut reconsidérer cette manière de développer un réel consensuel, le nôtre, sur une base linguistique qui semble montrer ses limites. 

Ce réel humano-centré "accepté et construit ensemble" ne pourra être modifié qu'avec une remise en question profonde, je dirais même mieux : radicale.

Auteur: Mg

Info: 13 août 2020

[ science-fiction ] [ anticipation ] [ nouveau paradigme ] [ mémétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

empathie

"Il avoue les meurtres. Tout le monde pleure : les jurés, les huissiers, moi"
Denis Waxin a le même âge que moi. Il a travaillé chez Auchan, à Villeneuve-d'Ascq, où j'ai été employé pendant mes études de droit. Lui à la pompe, moi aux produits frais. En 2003, devenu avocat, je me retrouve commis d'office pour le défendre, entre sa condamnation en première instance et l'audience d'appel. Je ne savais rien de l'affaire, mais son nom ne m'était pas inconnu, car son histoire avait fait du bruit : il a tué et violé six enfants, sur une période de quinze ans.
Denis n'a rien exprimé jusque-là. En première instance, son avocat n'a jamais réussi à communiquer avec lui.
Je l'ai rencontré une dizaine de fois en détention. Chaque fois, le GIPN était là pour le surveiller (c'est un psychopathe diagnostiqué comme tel).
Premier entretien, pas un mot. Pour un avocat, c'est difficile : le dossier ne fait qu'égrener la liste des crimes atroces, tous commis par lui ou lui étant très sérieusement attribués. On est aux limites de l'humanité.
Mais on a le même âge, on a vécu à quelques kilomètres de distance avec des expériences proches... Le parallélisme de nos situations va me servir, à partir du deuxième entretien. On fume tous les deux des Camel, et je lui en fais passer.
Le chef de la surveillance comprend que j'essaye d'obtenir un contact. Il accepte qu'on me surveille de loin, pour que je fume avec mon client dans un local où c'est en principe interdit.
Grâce à Auchan, on réussit à communiquer. Je lui dis qu'en sortant de ma mise en rayon, j'ai sûrement dû faire le plein, et que le pompiste à l'époque, c'était lui.
C'est un type vraiment étrange. Il refuse d'aborder les faits et me fait un peu peur. Mais il est capable d'échanger un sourire avec son futur avocat quand il me voit arriver en appel, alors qu'il joue un peu sa vie (il a été condamné à perpétuité et trente ans de sûreté en première instance).
Il se dit innocent, mais comme un enfant pris la main dans le sac. Moi, je commence à être physiquement marqué, car j'ai affaire à un type aux limites de ce que nous sommes. J'ai maigri de onze kilos en quinze jours.
Arrive le procès. La - remarquable - présidente de la Cour d'appel de Saint-Omer a conscience que l'un des enjeux est qu'il parvienne à s'exprimer. Or, avec Denis Waxin, autant s'adresser à une planche.
Un jour, elle sent qu'il est au bord de parler. Moi aussi. Par signes, je demande une suspension, qu'elle m'accorde. C'est à Saint-Omer, il y a un petit couloir en bois, un peu à l'ancienne, entre les geôles et l'audience publique. Malgré les mesures de sécurité, les mecs du GIPN me laissent l'approcher et fumer avec lui, sentant peut-être que c'est le seul moyen d'entretenir un lien avec ce garçon. Mais on ne se dit presque rien au cours de la pause.
A son retour dans le box, il raconte tout. Tous les crimes pour lesquels il est poursuivi. Il en raconte même deux autres. Sans émotion apparente, comme un légiste décrirait un corps. Et sans un bruit dans la salle. Ça prend une demi-journée.
Je sais très bien que personne, pas même moi, ne peut vouloir libérer cet homme, et que la peine sera majeure. Mais c'était important pour tout le monde - lui inclus - qu'il dise ce qui s'était passé.
De ma plaidoirie, je me souviens uniquement du début et de la fin. "On m'avait dit que j'allais rencontrer un monstre et j'ai rencontré un homme", ça commence comme ça et ça donne la tonalité. Je voulais dire aux gens à quel point il était revenu vers l'humanité.
Au bout d'un moment, on entend une espèce de gros ramdam de gamin qui pleure : ses cheveux sur le micro de la Cour d'assises, il chiale à grandes eaux. "Euh, euh, euh, pardon..." Ça résonne dans la Cour. Jamais il n'a exprimé un sentiment pareil. A ce moment, quelque chose a craqué en lui, qui le faisait définitivement redevenir un homme, voire un enfant.
Personne ne s'est moqué de lui, personne n'a sifflé, les victimes ont été remarquables. Je m'arrête net, je le regarde, et je trouve que tout est dit. Donc j'arrête de plaider et je pleure, ce qui n'arrive pas tous les jours aux assises. Il y a un grand silence, et tout le monde chiale : les jurés, les huissiers, le GIPN... Tout le monde est conscient de l'instant qui ramène ce bonhomme parmi nous.

Auteur: Moyart Jean-Yves

Info: sur Rue 89

[ rédemption ] [ émotion ] [ pédophile ]

 

Commentaires: 0

covid-19

De façon concrète, dans nos vies, la "smart planet" sans contact - le monde-machine - a franchi des seuils en 2020 :

Bond en avant du commerce électronique et des livraisons à domicile. L’épidémie a augmenté de 183 milliards les dépenses dans l’e-commerce mondial. L’e-commerce représente désormais 13,4 % du commerce de détail en France, contre 9,8 % en 2019. Selon Romain Boisson, patron de Visa France, "l’e-commerce s’est ancré dans les habitudes de consommation des Français et s’impose désormais […] pour tous les commerçants, quelle que soit la taille de leur entreprise". Deliveroo vaut 7 milliards de dollars en bourse. Les grandes sociétés de transport/logistique (DHL, UPS, FedEx, etc.) ont réalisé un chiffre d’affaires de 300 milliards de dollars en 2020. Le chiffre d’affaires d’Amazon a augmenté de 38 % en 2020 pour atteindre 320 milliards d’euros. C’est à l’"Amazon academy" que l’État français, via la Banque publique d’investissement, confie la formation des PME pour leur mettre le pied à l’Internet. Nom du programme : l’Accélérateur du numérique.

Adoption du télétravail. Cinq millions de Français ont télétravaillé pendant le premier confinement et 60 % des salariés veulent continuer après la crise. Moins de locaux, plus de télécommunications. Le nombre d’abonnés à la fibre chez Orange a bondi de 50 % : "Jamais on n’a autant câblé les Français qu’en 2020". Boom des applications de visioconférence et autres "outils collaboratifs" en ligne. Microsoft Teams enregistre un record avec 44 millions d’utilisateurs quotidiens. Les ventes d’ordinateurs connaissent la plus forte croissance annuelle (+ 4,8 %) depuis dix ans dans le monde. Au tribunal administratif de Grenoble, "le tout numérique a amorti la baisse d’activité". De quoi tenir l’objectif des services publics "100 % dématérialisés" fixé par la plan "Action publique 2022".

Invasion du télé-enseignement. Invention des cours "en distanciel" y compris pour les apprentis, grâce au "learning management system". L’école de commerce de Grenoble organise ses "Portes ouvertes online" en janvier 2021. La ministre de l’Enseignement supérieur, Frédérique Vidal, voit dans l’épidémie "une opportunité de façonner l’université numérique de demain". Envol inespéré pour le "e-learning et les ed-tech", le plus profitable des "marchés porteurs" identifiés en février 2020 par le cabinet Roland Berger, avec 6000 milliards de dollars en 2018. Parmi les "verrous à lever", celui-ci déplorait "la complexité́ des processus d’accès au marché́ scolaire qui agit comme une barrière à l’entrée". Voilà un verrou forcé par le virus. Le moindre prétexte renvoie désormais les élèves derrière leur écran, comme l’ont constaté ceux des Yvelines, assignés "en distanciel" pour une chute de neige le 10 février 2021. #Restezchezvous est entré dans les mœurs.

Ruée sur les loisirs en ligne. 36 % de temps d’écran en plus par jour pour les Français, plus une heure de télé supplémentaire. Plus de 2,6 milliards de personnes utilisent quotidiennement Facebook, WhatsApp et Instagram, soit 15 % de plus que fin 201928. Netflix et le jeu vidéo, grands gagnants du confinement. Lequel a "accéléré le processus d’une culture de la sédentarité plus poussée, notamment la place des écrans", alerte David Thivel, membre du conseil scientifique de l’Observatoire national de l’activité́ physique et de la sédentarité́ (il y a des observatoires pour tout). Les Français ont pris en moyenne 3 kg en 2020.

Décollage de la télémédecine. 28 % de téléconsultations en avril 2020, contre 0,1 % avant la pandémie. 19 millions de téléconsultations remboursées par la Sécurité sociale en 2020. Les start up de la santé numérique (dites "healthtech") lèvent 8,2 milliards de dollars au premier trimestre 2020, un record30. Selon Stanislas Niox-Chateau, le patron de Doctolib, "une fois l’épidémie de coronavirus passée, entre 15 % et 20 % des consultations médicales se feront à distance en France".

[...]

Invasion de la monnaie virtuelle. Les Français délaissent le cash par peur de la contamination. Les retraits de liquide ont chuté de 50 % en volume pendant le premier confinement, au profit du paiement "sans contact" (dont l’Autorité bancaire européenne a relevé le plafond à 50 €), qui bondit de 65 %. Les réfractaires ont "sauté le pas, et il n’y aura pas de retour en arrière", selon Pierre-Antoine Vacheron, directeur général de Natixis Payments. Au fait, le nombre de distributeurs de billets diminue en France depuis 2015. Ça va s’accélérer. Avec l’e-commerce et le "click & collect", le consommateur paie désormais en ligne. "Les Français s’y habituent", constate le même expert. Ou plutôt, on y habitue les Français. On s’est vu refuser un chèque au motif qu’il faudrait toucher notre carte d’identité pour l’encaisser. [...]

Effet-cliquet : on ne revient pas en arrière quand les technologies ont imposé de nouvelles habitudes. L’offre a créé la demande. De réunions Zoom en concerts virtuels, de cours sur Internet en achats en ligne, de cyber-démarches administratives en téléconsultations médicales, nous devenons des Smartiens, cette espèce qui ne survit que connectée à la Machinerie générale. Voyez la gratitude des confinés connectés – "comment aurions-nous fait sans Internet ?" - révélant toute honte bue leur dépendance Si notre vie tient à un câble, la sélection technologique élimine ceux qui refusent ou n’ont pas accès à la connexion universelle. Seuls restent les adaptés, les connectés, vaccinés, livrés et monitorés par la Machine. Le petit commerce ne survit pas sans mise en ligne, c’est-à-dire sans supprimer ce qui fait le petit commerce. Il faut choisir : disparaître ou disparaître.

Auteur: PMO Pièces et main-d'oeuvre

Info: Dans "Le règne machinal", éditions Service compris, 2021, pages 65 à 70

[ transition technologique ] [ transformations ] [ conséquences ] [ accélération ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Coli Masson

citation s'appliquant à ce logiciel

Sache, toi qui badaude dans les méandres de FLP, qu'il n'est pas ici question de taxinomie arrêtée, comme celles que pouvait craindre Perec ; mais du choc de l'esprit du visiteur lecteur avec certaines formulations rencontrées. Choc qui génère, entre autres possibilités, celle d'interagir avec les participants, via les citations et la discussion de leurs tags-étiquettes. Ou d'orienter une pensée par la mémorisation d'extraits dans un ordre voulu, voire en les enchevêtrant à ta manière. 

Il y avait les lexiques et autres listes antiques. Voici maintenant celles, intriquées, de la Base de Données FLP. 

Pour le coup nous voilà situés une petite marche plus haut - ou plus bas -, ce qui fait une grande différence au vu des corrélations démultipliées qui s'ensuivent. Corrélations sous forme d'"associations induites" bien recensées, qui s'exponentialisent, même si ce ce dernier verbe est inadéquat. Ainsi peuvent se développer et/ou disparaitre des classifications croisées, en général induites par les significations-sources-étymologiques et/ou les interprétation du sens (sémantique) des textes-extraits. Mais pas que, puisque d'autres facteurs, topologiques, temporels, de genres... jouent aussi un rôle. 

Tout ça sans cesse en mouvement.

Notons ici qu'un individu dont la vie est terminée se retrouve "figé". Le voilà alors idée-personnage-texte-époque dont on peut étudier certaines entrailles (dans le désordre et au hasard : par contexte de vie, influence historique, adn, apparence, actions, statistiques des écrits, nb de conjoints, d'enfants, etc.) pour peut-être déceler quelques rapport/analogies avec d'autres personnages-situations tels que les textes on pu les fixer, ici en français. Secondéité-monade-aboutie, selon cette idée

Dit autrement : avec FLP on joue un peu plus avec les morts qu'avec les vivants. Le langage est ainsi fait.  

Mais comment organiser toutes ces mémoires écrites, de manière à "mieux" pouvoir les explorer, ne pas s'y perdre... et éventuellement en avoir usage ? 

C'est ici que l'analogie avec l'ADN et sa structuration "sur base quatre" viennent à l'esprit. On sait déjà que les "restes de très anciens mécanismes mémorisés (junk adn)", via des processus que l'on commence à mettre au jour, peuvent être ré-activés et réutilisés lors de développements postérieurs du vivant. On voit donc là des fils de mémoires longs, profonds... bien antérieurs aux mécanismes-résonnances épigénétiques "dedans-dehors" adaptatifs. Epigénétique qui nous fait aussi voir que les monades sont moins étanches que ce que pensait Leibniz.

Pour ce qu'on en comprend, l'ADN est avant tout la mémorisation, complexe et structurée (d'une manière qui nous échappe encore beaucoup), des événements anciens qui ont participé à la construction des émergences incarnées que nous qualifions de vivantes. Mémoire sur la durée qui fait apparaitre nos langage, dictionnaires, et autres taxonomies lexicologiques comme dérisoires et volatils. 

Pensons maintenant à l'important rôle joué par le vivant dans le façonnage de notre planète matrice, par exemple via les processus de biominéralisation comme la formation des plaques calcaires d'algues unicellulaires, l'émergence des squelettes externes de nombreux invertébré, ou internes des vertébrés, etc. qui amènent vers la terre-humus et autres falaises de craies de la Manche franco-britannique. La vie biologique a développé des structures qui, en s'accumulant, devinrent substrats essentiels, paysages et décors aussi, de nos existences. Le concept de Gaïa ne dit pas autre chose. 

Comment ne pas voir que cette mémoire-là - DNA -, en se développant-évoluant, extrapole, à partir des éléments minéraux, pour, en bricolant d'étonnante façon leurs atomes-molécules, arriver jusqu'à nous ? 

Même si tout ça n'est que le point de vue local d'un singe debout et parlant, lui-même dégueuli transitoire de ces longs tâtonnements - pas si biscornus au final puisqu'ils développent une hyper-complexité efficace... N'allons-nous pas jusqu'à marcher sur la lune, ah ah ah...

Est-ce alors raisonnable de tenter la comparaison de nos systèmes de classifications-mémorisations lexicologiques sur le temps long avec le codage ADN ?  

Ou, encore plus simple et évident : La Source Matricielle qui nous expectore conserve-t'elle en filigrane, de manière discrète, un principe tétravalent que nous ne savons pas voir comme essentiel au-delà du fait qu'il constitue les possibilités de base de l'atome du carbone ? Méta-gouverne qui oriente et pilote tant bien que mal la bio-évolution et donc l'humanité. Double dualité dont il faudrait s'inspirer pour nos représentations diachronico-taxonomiques. 

Ici on se prend à rêver quelque lien avec la grande harmonie sous-jacente et mystique qui semble présider à la répartition des nombres premiers de la conjecture de Riemann... Pour rapidement voir ressurgir, en miroir, une fois encore, ce qui ressemble à une dualité prison, attribut de l'observateur. 

Peut-être serait-il temps de réaliser que cette approche bipôles (actuellement plutôt sur polarité masculine ?), grandement conditionnée par les grecs anciens puis consolidée par les routines et habitudes de pensées occidentales-rationalistes, mérite une remise en question. 

Euclide a réfléchi en se pensant par rapport à une surface, Newton s'est mis à la place de la matière, Einstein de la lumière. On attend désormais une concorde (de) scientifique(s) chercheur(s), dotée(s) de capacités de modélisation suffisamment puissantes pour franchir un nouveau cap en prenant exemple sur la méthodologie de cette force subjacente aux manifestations. Stratégie de l'esprit enfermé dans la matière... qui nous a ainsi généré. 

Il est imaginable que c'est par ce pas supplémentaire, (élargissant notre conscience ?), que le prochain vrai saut scientifique et conceptuel humain pourra se produire 

Si oui, qui trouvera le bon angle d'attaque, la faille qu'on pourra ensuite élargir pour développer un formalisme nouveau. Socle d'une prise de distance avec les limitations de nos sens et de nos pulsions duales ? Formalisme apte à gérer des métissages  conceptuels tels que "rigoureuse souplesse" ou "rationalisme émotionnel". 

En clair la mise en oeuvre d'une logique améliorée, mieux émancipée de son - ou de ses - langage(s). 

FLP s'y attaque à sa manière, par un tentative de classification lexicographique intriquée, diachronique...  tâtonnante. Entreprise nécessairement communautaire, aventureuse, légèrement stochastique... et peut-être pré-mémétique.

Auteur: Mg

Info: déc 2022

[ spéculation ] [      dépassement ] [     codage tétravalent ] [      futurologie ] [    gnose ] [    théologie ] [    phylogénie ] [    agencement diachronique ] [    épistémologie ] [ FLP mégalo ]

 

Commentaires: 0

Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

chronos

Le temps est une différence de pression : la respiration comme média environnemental dans "Exhalation" de Ted Chiang

Dans la nouvelle de science-fiction "Exhalation" de Ted Chiang, publiée en 2008, le souffle est le médiateur de la fin du monde.

Ce texte raconte l'histoire d'une espèce mécanique alimentée par l'air. Chaque jour, les membres de cette espèce consomment deux poumons d'aluminium remplis d'air, et chaque jour, ils les remplissent à nouveau à partir d'un réservoir caché sous terre. Leur univers comporte de nombreuses villes et quartiers, mais il est délimité par un "mur de chrome solide" qui s'étend jusqu'au ciel. Un jour, une cérémonie traditionnelle du nouvel an, qui dure toujours exactement une heure (chronométrée avec la précision mécanique de l'espèce), dure quelques minutes de plus. C'est surprenant. La nouvelle se répand et ils découvrent que la manifestation s'est prolongée dans tout leur univers. Les horloges elles-mêmes semblent fonctionner correctement ; c'est plutôt le temps lui-même qui s'est ralenti d'une manière ou d'une autre. Le narrateur, un anatomiste, soupçonne que la vérité réside dans le cerveau des espèces et décide de procéder à une autodissection avec un appareil de sa conception. De même que la nature de la conscience échappe aux humains organiques, elle échappe aussi aux automates de Chiang. Certains pensent que leur esprit est inscrit sur d'innombrables feuilles d'or dans leur cerveau ; d'autres soupçonnent que le flux d'air agit sur d'autres supports plus subtils. Au cours de son autodissection, le narrateur découvre la vérité : la conscience n'est pas inscrite dans le cerveau, mais constituée par la circulation de l'air dans le cerveau, qui forme et reforme les connexions électriques avec une plasticité infinie. De cette révélation, le narrateur déduit que le temps lui-même ne ralentit pas, mais que c'est plutôt la force de l'air à travers le cerveau qui ralentit, altérant la cognition. La deuxième loi de la thermodynamique : l'entropie augmente dans un système fermé, ce que l'univers doit être en fait. Chaque action, pensée et mouvement augmente l'entropie de leur univers, "hâtant l'arrivée de cet équilibre fatal", c'est-à-dire la possibilité de la mort.

Comme de nombreuses histoires de Chiang, "Exhalation" explore les conséquences culturelles étendues d'un concept scientifique, en l'occurrence l'entropie. À travers les principes physiques de la thermodynamique, la respiration met en scène une ironie tragique dans le système mondial. Le travail de maintien d'un type particulier de vie rend toute autre vie impossible. Je lis "Exhalation" comme une riche archive de possibilités théoriques médiatiques, car Chiang relie les problèmes de la technologie, de la médiation, de la conscience, de l'incarnation, de la temporalité et de l'environnement. La respiration est le pivot qui maintient ces concepts ensemble, et en particulier, selon moi, la relation de la respiration avec le temps. Dans cet article, je lis "Exhalation" à la fois à travers et en tant que théorie des médias pour suggérer que la mesure et la perception du temps, qui sont depuis longtemps des problèmes fondamentaux pour les études sur les médias, sont devenues des questions environnementales urgentes. Nous pouvons appréhender ces temporalités environnementales par le biais de la respiration, qui ne fonctionne pas de manière linéaire mais plutôt récursive, franchissant une certaine échelle dans sa répétition.

"Exhalation" met en scène deux types de temps différents : celui de la perception intérieure et celui de la comptabilité extérieure. D'une part, le temps est le sentiment incarné qu'un moment suit le suivant. D'autre part, le temps est la comptabilité de technologies théoriquement impartiales, elles-mêmes étalonnées par rapport à des phénomènes physiques. Le fait que le monde d'"Exhalation" soit entièrement mécanique permet à Chiang d'établir une analogie fluide entre ces deux sens du temps. Le drame découle donc de la découverte par le narrateur que ces sens, qui partagent supposément un substrat matériel, sont devenus non calibrés. Le véritable substrat, découvre le narrateur, n'est pas la matière en elle-même, mais plutôt la différence entre les matières. "Voici pourquoi", écrit le narrateur,

...j'ai dit que l'air n'est pas la source de la vie. L'air ne peut être ni créé ni détruit ; la quantité totale d'air dans l'univers reste constante, et si l'air était tout ce dont nous avons besoin pour vivre, nous ne mourrions jamais. Mais en réalité, la source de la vie est une différence de pression atmosphérique, le flux d'air des espaces où il est épais vers ceux où il est mince.... En réalité, nous ne consommons pas d'air.

En tant que matière, l'air ne s'épuise pas. Au contraire, les actions de l'espèce évacuent la différence, augmentent l'aléatoire et éliminent ainsi l'action mécanique et sa temporalité concomitante.

À première vue, l'approche du temps de Chiang est conforme à certains modèles fondamentaux des études sur les médias, pour lesquels le temps est un effet secondaire de sa technologisation. Pour Harold Innis, critique du début du XXe siècle, par exemple, les supports d'enregistrement disponibles dans une civilisation donnée déterminent les relations possibles avec le temps. Une civilisation basée sur le papier favorise la synchronisation sur de grandes distances, facilitée par la vitesse de circulation du papier, tandis qu'une civilisation basée sur la pierre serait plus diachronique, favorisant les supports statiques qui couvrent de grandes étendues de temps. Les idées d'Innis ont inspiré des approches ultérieures des médias numériques. Pour le théoricien des médias Wolfgang Ernst, les médias numériques sont "critiques en termes de temps", dans la mesure où ils dépendent d'un timing précis pour fonctionner. Le temps numérique est mesuré par des cristaux de quartz qui marquent les tics du temps UNIX, qui compte le début de l'histoire à partir du jeudi 1er janvier 1970, lorsque le carbone atmosphérique ne mesurait que 325 ppm. Ernst fait la distinction entre le temps "dur" et le temps "mou", c'est-à-dire le temps imposé aux machines par la physique et le temps inventé par les machines dans leur fonctionnement. Si le temps dur de la physique se poursuit en dehors de l'objet médiatique, notre appréhension de ce temps est inéluctablement liée à la durabilité du temps mou, généré par les machines.

Je suis loin d'être le seul à m'opposer à ces modèles de temporalité des médias. Je pense, par exemple, à l'argument de Sarah Sharma selon lequel ces modèles sont obsédés par la vitesse : l'hypothèse selon laquelle les médias accélèrent la temporalité et réduisent l'espace, rapprochant les cultures et effaçant le temps passé à attendre que les messages soient transmis. Pour Sharma, la vitesse est trop simple ; en revanche, elle affirme que le principal sujet temporel des médias est la synchronicité, dont la négociation et le maintien exigent un travail culturel et matériel constant. La relation au temps, tout comme la relation à l'environnement, est liée à la position politique de chacun. Elle est également liée au corps. John Durham Peters affirme que le corps humain lui-même est un support temporel, qui calibre une multiplicité vertigineuse d'échelles de temps. Les rythmes circadiens intègrent la "pulsation" géophysique du jour et de la nuit dans les êtres vivants. Vu dans ce cadre, le rythme inconscient de la respiration n'est qu'une partie d'un système médiatique complexe de temporalité qui se calibre et se recalibre constamment. Je souhaite faire progresser le rythme dans mon analyse. Shintaro Miyazaki affirme que le rythme a toujours été un aspect central, bien que méconnu, de la culture algorithmique. Le rythme supplante la notion d'"horloge" ou d'"impulsion", qui ne rendent pas compte de la négociation constante entre les états de la matière caractéristiques des médias numériques. Le rythme nomme alors le travail actif de synchronisation de la médiation. Il s'ensuit que nous pourrions caractériser le drame d'"Exhalation", et peut-être notre crise climatique actuelle, comme une désarticulation du rythme.

Au fur et à mesure que la nouvelle de la découverte du narrateur se répand, la panique face à la nouvelle possibilité de mort se répand également. Pendant quelques pages, "Exhalation" devient une allégorie manifeste des réactions humaines au changement climatique. "Nombreux sont ceux qui réclament une limitation stricte des activités afin de minimiser l'épaississement de notre atmosphère", écrit le narrateur, "les accusations de gaspillage d'air ont dégénéré en rixes furieuses". Une secte quasi-religieuse, les Inverseurs, gagne en popularité. Dans une parodie de la géo-ingénierie, ils construisent un moteur qui comprime l'air, augmentant ainsi la pression atmosphérique globale. "Hélas, observe le narrateur, le moteur lui-même était alimenté par l'air du réservoir..... Il n'a pas inversé l'égalisation, mais a permis d'augmenter la pression de l'air. Il n'a pas inversé l'égalisation mais, comme tout ce qui existe dans le monde, l'a exacerbée". Face à l'impossibilité d'empêcher la dégradation de l'atmosphère, les mécaniciens tentent de remodeler le cerveau lui-même, parallèlement aux adaptations transhumaines aux climats inhospitaliers. Tout cela n'aboutit à rien. Le narrateur termine l'histoire en spéculant sur un avenir possible, lorsqu'un explorateur intrépide franchira le mur de chrome et transformera le système fermé en un système ouvert. Les automates pourraient revivre, grâce à l'introduction d'une nouvelle pression, d'un nouveau souffle, mais leur esprit et leur culture ne survivraient pas.

Mais le souffle n'est rien d'autre qu'une technologie de survie. Je pense ici au travail de Jean-Thomas Tremblay sur le souffle en tant que technique féministe, ou aux archives d'Ashton Crawley sur le souffle dans les pratiques culturelles et spirituelles des Noirs. Les logiques médiatisées de sa mise en péril, de sa vulnérabilité et de sa force sont, comme l'affirme Tremblay, "autant une déclaration phénoménologique qu'une déclaration historique et culturelle". À ces archives respiratoires, j'ajouterais le souffle en tant que médiation environnementale. Cette médiation se produit à différents niveaux, depuis le brouillage par la respiration des frontières entre les médias et le corps jusqu'à la respiration en tant que modèle de réflexion sur le temps environnemental. Il est essentiel de noter qu'il ne s'agit pas d'un temps avec un début ou une fin, mais plutôt de cycles imbriqués de naissance et de décomposition, la médiation s'empilant sur elle-même. Quels nouveaux rythmes peuvent émerger ?

La temporalité de la conclusion d'"Exhalation" apporte une réponse provisoire. Les derniers paragraphes offrent une "valédiction"*, le narrateur s'adressant directement au lecteur. "Le même sort que celui qui m'a frappé t'attend-il ?" demandent-ils. Alors que la majeure partie du récit se déroule au passé, la fin s'inscrit dans un futur imaginé et s'adresse au lecteur à l'impératif : "Visualisez tout cela la prochaine fois que vous regarderez le monde gelé qui vous entoure, et il redeviendra, dans votre esprit, animé et vital. Telle est la temporalité de la spéculation, que Chiang présente comme un mode de réflexion sur l'effondrement écologique, qui ne prend pas l'effondrement comme une donnée et ne croit pas naïvement qu'il peut être évité. Il y a une fin, et il y a ce qui vient après la fin. L'après-fin est un espace de possibilités endeuillées :

Notre univers aurait pu glisser vers l'équilibre en n'émettant rien de plus qu'un sifflement silencieux. Le fait qu'il ait engendré une telle plénitude est un miracle, qui n'a d'égal que l'univers qui vous a donné naissance.

Respirer, c'est être médiateur du temps, pour soi mais aussi pour les autres. C'est être le médiateur de la possibilité du prochain souffle à venir, c'est coordonner et relier une multitude de systèmes naturels et culturels. Dans le cadre de la crise climatique, nous savons désormais de manière concluante que nos médias industriels sont à bout de souffle. Le défi que nous lance "Exhalation" est de les refaçonner pour qu'ils puissent soutenir le souffle.

Auteur: Moro Jeffrey

Info: https://jeffreymoro.com/blog/2022-04-01-defense-talk/ - 7 Jan 2021. Présentation faite dans le cadre du panel Environmental Media au MLA 2021, qui s'est tenu virtuellement. Pour les références du texte, voir directement sur le site. Trad Mg et DeepL. *Formule qui recommande le destinataire à la protection divine

[ homme-machine ] [ cadence ] [ science-fiction ] [ analyse de texte ] [ réchauffement climatique ] [ Gaïa ] [ tétravalence ] [ accélérationnisme ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel