Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 107
Temps de recherche: 0.0754s

femme-par-femme

La singularité est paradoxale. Synonyme du terme "original", la singularité semble être à la fois "à l’origine de toute chose" et "différente de la norme". C’est cette dualité qu’explore Mai Tabakian, au travers d’une oeuvre complexe, qui entremêle les signifiants et les références. Une œuvre unique, avec des spécificités tant techniques qu’esthétiques, qui tranche dans le paysage de l’art contemporain et invite à visiter de nouvelles frontières. "Singularité" est une invitation au voyage. Mai Tabakian crée des œuvres singulières qui mettent en dialogue par le biais d’un langage fait de signifiants asiatiques et de signifiés européens; à l’image de l’œuvre (...) Comme chez les Grecs, le mythe se mêle aux mathématiques dans l’œuvre de Mai Tabakian. Les cibles de "Flying Targets" sont une mise en abîme de la spirale de l’œuvre. Elles semblent comme aspirées par un invisible trou noir, au centre duquel se trouve la "singularité", selon les termes scientifiques de l’astronomie. La singularité est le point infinitésimal où est concentrée toute la matière de l’étoile ; ou pourrait-on dire de "L’étoile noire", cette œuvre forte de l’exposition, qui domine l’ensemble des "Nucleus". Autour de la singularité se trouve "l’horizon des événements", une région de l’espace où rien ne peut échapper à sa gravité, pas même la lumière. Une région mouvante et aspirante qui nous captive, qui nous hypnotise et nous amène, tel un cycle cinétique perpétuel à la spirale de "Spectrum Invaders". (...) En littérature, la "singularité" c’est l’être au monde de l’auteur, c’est cette permanence qui le rend tout à la fois en rapport avec le monde et hors du monde. Cette singularité s’incarne dans le style*. Le style dit à la fois tout du monde, tout d’un monde, et tout de l’impossible compréhension globale du monde. D’aucun pense souvent que le style se donne à voir immédiatement. Mais ici, le "style" est un mystère. Le fil ne tisse pas l’œuvre, il ne joue pas un rôle de l’ombre entre les étoffes, mais il s’affirme comme le trait du dessin, comme acte créateur, visible, existant à part entière. L’œuvre de Mai Tabakian est aussi singulière en ce sens qu’elle affirme un acte d’existence, un féminisme assumé, sans en faire pour autant un sujet à traiter. Sa technique spécifique, son traitement du tissu et son usage du fil, son goût pour l’éclatement des couleurs est un langage de la singularité féminine dans la création, notamment contemporaine, qui n’est pas sans rappeler les œuvres de Louise Bourgeois ou de Nikki de Saint Phalle. Dès lors que l’on a posé cela, il ne peut être anodin que la fleur, la rosace, le cercle et le cycle soit des figures omniprésentes du travail de l’artiste. Les oeuvres de Mai Tabakian sont des litotes complexes du monde. Elles disent le "tout", elles disent l’universel, par la singularité; c’est à dire l’unicité, l’étrangeté aussi, l’affirmation d’être en tout cas.

Auteur: Poizat Céline

Info: http://www.maitabakian.com/2016/03/singularite-texte-de-celine-poizat.html

[ beaux-arts ] [ exister ]

 

Commentaires: 0

exactitude

Avant d'aborder quelques constatations théoriques sur le langage, le sens et la vérité, il faut examiner de plus près le concept sous un angle historique. Tout d'abord la classification d'un grand nombre de philosophes du 20e siècle en deux grands camps opposés est, au mieux, une entreprise hasardeuse. Les philosophes sont des individualistes notoires et les écoles ou mouvements philosophiques sont, pour cette raison, caractérisés aussi souvent par leurs tensions et divisions internes que par leurs accords. Mais le langage, le sens et la vérité, sont des préoccupations omniprésentes dans la pensée du 20e siècle - au-delà des frontières des écoles individuelles - et que les différences dans la façon dont ces concepts sont compris deviennent parfois définitives pour certaines écoles philosophiques. On notera aussi qu'une grande partie de la philosophie du 20e siècle montre un intérêt particulier pour le concept de vérité, dû à une insatisfaction à grande échelle de la conception classique de la vérité en tant que correspondance, et que différents philosophes cherchent à appréhender le concept de vérité de manière très différente. Une brève liste de ce que les philosophes et groupes de philosophes ont dit sur la vérité rend cela évident :

Les pragmatistes : la vérité est l'utilité.

Nietzsche : la vérité est interprétation.

Frege : la vérité est simple et indéfinissable et ne ressemble à aucun autre prédicat.

Moore et Russell à leurs débuts : la vérité est simple, indéfinissable et exactement comme tout autre prédicat.

Les positivistes logiques : il faut remplacer le concept de vérité par celui de vérification/falsification.

Heidegger : la vérité est la non-divulgation (a-letheia qui, selon Parménide, oppose le domaine de la Vérité - alètheia - à celui de l'opinion, ou doxa. Selon les Définitions jointes aux manuscrits de Platon, l’alètheia est la "disposition qui permet l’affirmation et la négation". Selon Parménide, on peut opposer le domaine de la Vérité alètheia à celui de l'opinion, ou doxa

Wittgenstein à ses débuts : la vérité est un miroir, mais dire cela n'a vraiment aucun sens.

Wittgenstein plus tard : les tentatives de caractériser la vérité sont vides.

Foucault : la vérité est un système de procédures liées dans une relation circulaire au pouvoir.

Ces variations montrent non seulement l'intensité des discussions sur le concept de vérité, mais aussi qu'on ne peut pas facilement réduire cette multiplicité à une opposition entre ceux qui considèrent que la vérité est définissable et ceux qui ne le font pas. Le caractère définissable ou indéfinissable de la vérité n'est qu'une des questions qui divisent les philosophes. Des divisions tout aussi fondamentales découlent de la question de savoir si la vérité doit être considérée comme un concept sémantique, pragmatique ou ontologique.

Une autre division fondamentale semble exister entre ceux qui veulent adhérer à une certaine notion de la vérité et ceux, comme les positivistes logiques, qui cherchent à la mettre de côté comme un résidu de la métaphysique traditionnelle.

Auteur: Hintikka Jaakko

Info: Tel que rapporté par Hans Sluga sur http://www.truthandpower.com/

[ étymologie ] [ relativité ] [ langage ] [ mathématiques ] [ synthèse ] [ aléthique ] [ triade ]

 

Commentaires: 0

Ajouté à la BD par miguel

socio-psychologie

Le matérialisme nord-américain - logé au cœur de la pensée collective - s'explique peut-être par une curieuse connexion de la langue anglaise, où le mot free signifie à la fois "libre" et "gratuit". Pour le français, la liberté est plutôt intérieure, car fonction de la conscience - ou politique. Tout le monde sait que le pouvoir de l'argent augmente le pouvoir sur les choses. Néanmoins, la liberté est séparée de l'économie par une différence de dignité. Sauf dans les cas de famine, on ne meurt pas pour le pouvoir d'achat : on y voit une commodité, non un idéal.

L'âme anglo-saxonne peut-elle échapper à cette nuance de dictionnaire et lutter contre la confusion qu'induit un seul mot pour deux horizons ? Une publicité pour une compagnie aérienne nous propose - grâce à un plan de fidélité - de "voler libres pour toujours", c'est à dire gratuitement de temps à autres. Soudain le fait de dépenser moins d'argent augmente la sensation de liberté. L'économie du moindre dollar est victoire, jubilation : réalisation. D'où le fait, chez les Canadiens, de marchander sans vergogne et de se battre pied à pied pour s'ouvrir le coin de ciel bleu d'une jouissance inversement proportionnelle au prix. La réduction est demandée comme un droit - mais sans baisse de générosité chez le vendeur ! La joie est chiffrée. Le désir de liberté - cette grande libido qui voudrait capturer la vie - est reporté sur l'argent. l'Éden est dans la gratuité. Le seul amour véritable est associé aux billets, le génie ou la justesse d'esprit sont des capitaux à réaliser. Le fait de payer incline à une certaine férocité des rapports, comme si dans l'échange il y avait, clandestinement, un gagnant et un perdant, une recherche de domination et la volupté de réduire en esclavage.

La qualité d'une œuvre finit par tenir à ces recettes. La liberté est d'autant moins comprise comme la direction même de la pensée, la recherche du savoir, la jubilation de comprendre. L'accent est rarement mis sur le plaisir volatil de l'analyse, bien séparé des questions d'intendance, dont d'autres cultures ne méconnaissent pas, pour autant, l'importance.

Ne noircissons pas cependant : s'il est peu d'accent mis sur le spirituel, il ne manque pas d'esprit impressionnants dans la vie courante. Le fait d'être peu encouragé à penser engendre une révolte qui porte loin. Et, si tant est que l'on valorise la gratuité, rien n'empêche d'arriver un jour à la poésie et à la subtile fraîcheur du rêve : sans valeur comptable, elles relèvent du miracle. Enfin, même si la relation à la richesse est omniprésente, elle ne détourne pas forcément de la tolérance et de l'harmonie : on est aimable avec le client potentiel, on le reste dès lorsqu'il n'achète pas car on l'aperçoit comme libre de l'emploi de son argent. Le matérialisme se transcende en sainteté ordinaire, l'amour et l'intelligence prévalent. Il n'en va pas toujours de même dans les pays où l'individualisme de la pensée incline au mépris.

Auteur: Gloaguen Alexis

Info: Digues de Ciel

[ linguistique ] [ capitalisme ] [ mot carrefour ] [ polysémie ] [ comparaison ] [ occident ] [ célébrité modèle ] [ marchandisation ] [ translangue ]

 

Commentaires: 0

Ajouté à la BD par miguel

psychiatrie

"Les cas décrits dans cette section (La Peur d'Être) peuvent sembler extrêmes, mais je suis convaincu qu'ils ne sont pas aussi inhabituels qu'on pourrait penser. Sous l'extérieur apparemment rationnel de nos vies existe une peur de la folie. Nous n'osons pas remettre en question les valeurs par lesquelles nous vivons ou nous rebeller contre les rôles que nous jouons de peur de mettre en doute notre santé mentale. Nous sommes comme les prisonniers d'une institution psychiatrique qui acceptent son caractère inhumain et insensible comme des soins et du savoir-faire s'ils espèrent être considérés comme suffisamment guéris pour repartir. La question de savoir qui est sage et qui est fou était le thème du roman "Vol au dessus d'un nid de Coucou". La question, en quoi consiste la santé mentale ? Est clairement posée dans la pièce "Equus".
L'idée que beaucoup de ce que nous faisons est insensé et que si nous voulons être sains, nous devons nous autoriser à être fous fut fortement énoncée par R.D. Laing dans la préface de son livre "The Divided Self" aux éditions Pélican. Laing écrit: "Dans le contexte de notre folie omniprésente actuelle que nous appelons normalité, santé mentale, liberté, tous nos cadres de référence sont ambigus et équivoques". Et dans la même préface: "Je voudrais donc souligner que notre état "normal" "ajusté" est trop souvent l'abdication de l'extase, la trahison de nos vraies potentialités, bref que beaucoup d'entre nous ne réussissent que trop à acquérir un faux-moi pour s'adapter aux fausses réalités".
Wilhelm Reich avait une vision un peu semblable du comportement humain actuel. Ainsi, Reich dit: "Homo normalis bloque complètement la perception du fonctionnement orgonotique* basique à l'aide d'un blindage rigide; d'ailleurs chez le schizophrène cette armure se brise complètement, conséquemment son biosystème est inondé d'expériences profondes de son noyau biophysique, afflux auxquel il ne peut pas faire face." Les "expériences profondes" auxquelles se réfère Reich sont les sensations de transmission plaisantes associées à une excitation intense, principalement de nature sexuelle. Le schizophrène ne peut faire face à ces sensations car son corps est trop contracté pour tolérer la charge. Sans aucun moyen pour "bloquer" l'excitation ou de la réduire dans une boite névrotique, incapable de "supporter" cette charge, le schizophrène littéralement "devient fou".
Mais le névrosé n'y échappe pas aussi facilement. Il évite la folie en bloquant l'excitation, c'est-à-dire en la réduisant à un point où il n'y a pas de risque d'explosion ou d'éclatement. En fait le névrotique subit une castration psychologique. Cependant le potentiel de libération explosive est encore présent dans son corps, bien qu'il soit rigoureusement gardé comme s'il s'agissait d'une bombe. Le névrosé est en garde contre lui-même, terrifié de laisser aller ses défenses et permettre à ses sentiments de s'exprimer librement. En devenant, comme Reich l'appelle, "homo normalis", après avoir échangé sa liberté et son extase pour la sécurité d'être "bien ajusté", il voit l'alternative comme "folle". Et dans un sens, il a raison. Sans être "fou", sans devenir "cinglé" au point qu'il pourrait tuer, il lui est impossible d'abandonner les défenses qui le protègent de la même manière qu'une institution psychiatrique protège ses détenus de l'autodestruction et de la destruction des autres."

Auteur: Lowen Alexander

Info: Fear of Life . *Relatif, selon Wilhelm Reich, à l'orgone, énergie cosmique partout présente. primordiale, omniprésente dans l'univers.

[ sociologie ] [ psychose ]

 

Commentaires: 0

​​​​​​​signes contextualisés

Cette énigme, ce nœud gordien de la "réalité extérieure", avec lequel la modernité avait paralysé les philosophes, est précisément ce que Sebeok a tranché. Confronté au dilemme de l'implication moderne d'un labyrinthe du fonctionnement de l'esprit, il a trouvé la sortie :

Que faut-il faire de tout cela ? Il me semble que, tout au moins pour nous, travailleurs dans un contexte zoosémiotique, il n'y a qu'une seule façon de se frayer un chemin dans ce bourbier, et c'est d'adhérer strictement aux thèses globales de Jakob von Uexküll sur les signes. (Sebeok, 2001, pp. 78 & 193n6) 

Bien sûr, Sebeok évoque ici l'Umweltstheorie, rien de moins, pour laquelle rien n'est plus central que la distinction que fait Sebeok lui-même entre le langage au sens premier (cet aspect du système de modélisation humain ou Innenwelt qui est sous-déterminé biologiquement et, en tant que tel, spécifique à notre espèce) et l'exaptation du langage pour communiquer (ce qui aboutit à la communication linguistique en tant que, encore une fois, moyen spécifique à l'espèce humaine).

L'erreur des relativistes culturels de tout poil, et des modernes en général, du point de vue de Sebeok, a été de traiter le langage comme un système autonome englobant tout, au lieu de réaliser son contexte zoosémiotique (Deely, 1980). Dans ce contexte, "l'unicité de l'homme" n'apparaît que dans la mesure où elle est soutenue par et dépend des points communs de signification qui définissent et constituent le domaine plus large des choses vivantes au sein duquel se trouve le langage, champ bien plus vaste au sein duquel les humains sont nécessairement incorporés et liés par x milliard de connexions que la compréhension même de la vie humaine doit finalement conduire vers une certaine incorporation consciente. En d'autres termes, la dernière contribution de Sebeok, venant de l'intérieur de la modernité, aura été de réaliser qu'il existait une voie au-delà de la modernité, la voie des signes. La question, sous cette forme, ne l'a jamais intéressé, mais dans le sillage de son œuvre, elle mérite d'être posée : que devrait être la postmodernité ? 

Il ne pouvait s'agir que d'une vision du monde qui parviendrait, d'une manière ou d'une autre, à rétablir ce qui est extérieur à nous-mêmes comme étant connaissable en tant que tel ou en tant que tel, sans renoncer à la prise de conscience moderne selon laquelle une grande partie, sinon la majorité, de ce que nous connaissons directement se réduit à nos propres coutumes et conventions selon lesquelles les objets sont structurés et les déductions faites. Sebeok a peut-être été tout à fait moderne. Mais personne n'a fait plus que lui pour s'assurer que l'ère moderne, du moins dans la culture intellectuelle et dans la philosophie dont il n'a jamais prétendu assumer le flambeau, était terminée. Sebeok est devenu, malgré lui, postmoderne jusqu'au bout des ongles. 

Je dis "malgré lui", car je sais qu'il avait une aversion pour l'appellation "postmoderne", pour une très bonne raison. La plus grande partie de la vie professionnelle de Sebeok avait été consacrée à exposer et à surmonter ce qu'on a appelé le "pars pro toto fallacy"*, selon lequel la doctrine du signe trouve son fondement adéquat dans un paradigme linguistique, pour ne pas dire verbal. Telle était la thèse, bien connue à la fin du vingtième siècle, de la proposition de "sémiologie" de Saussure. 

Par contraste, Sebeok a promu dès le début que la doctrine des signes doit être enracinée directement dans une étude générale de l'action des signes, de la manière distinctive dont les signes fonctionnent, action pour laquelle il a accepté de Peirce le nom de "sémiose". Mais si la doctrine des signes concerne avant tout l'action révélatrice de l'être distinctif des signes, alors la proposition adéquate pour son développement n'est pas le terme "sémiologie" mais plutôt le terme "sémiotique", qui exprime l'idéal d'un paradigme non lié au langage et se réfère à l'action des signes comme étant plus grande que, englobante, et en fait présupposée à toute action des signes comme étant de nature verbale. "La sémiose, a très tôt déclaré Sebeok, est un fait omniprésent de la nature comme de la culture" (1977a, p. 183).  

Auteur: Deely John

Info: The Quasi-Error of the External World an essay for Thomas A. Sebeok, in memoriam. *Erreur consistant à confondre une partie d'un objet avec le concept qui représente son intégralité. Trad Mg

[ réagencement permanent ] [ hyper-complexité ] [ historique ]

 

Commentaires: 0

Ajouté à la BD par miguel

omniprésent sapiens

(FLP) quels sont les exemples, s'ils existent, d'une espèce qui, comme les humains, s'est adaptée à tous les biotopes ?

(Gemini) -  il n'existe pas d'espèce animale qui ait réussi à s'adapter à tous les biotopes de la planète avec le même niveau de succès que les humains.

Cependant, plusieurs espèces animales présentent une remarquable capacité d'adaptation et peuvent coloniser une large variété d'environnements comme

- le rat brun (Rattus norvegicus) rongeur cosmopolite qui se rencontre dans presque tous les continents et habitats, des villes aux déserts en passant par les forêts. Son succès repose sur sa grande intelligence, sa capacité à s'adapter à différents régimes alimentaires et sa reproduction rapide.

- Le faucon pèlerin (Falco peregrinus),  rapace e plus rapide du monde qu'on trouve sur tous les continents sauf l'Antarctique. Sa rapidité et sa vue perçante lui permettent de capturer des proies dans des environnements très différents.

- La mouette rieuse (Larus ridibundus), oiseau marin qui est présent sur toutes les côtes du monde et qui s'adapte facilement aux milieux artificiels comme les ports et les décharges publiques. Son opportunisme alimentaire lui permet de se nourrir de déchets et d'autres sources de nourriture facilement accessibles.

- L'ours brun, dans l'hémisphère nord...

Ces exemples illustrent la capacité remarquable de certaines espèces animales à s'adapter à des environnements très différents. Cependant, il est important de noter que aucune d'entre elles n'a le même niveau de succès d'adaptation que les humains, qui ont réussi à coloniser et à modifier presque tous les biotopes de la planète.

(FLP) Pas même les fourmis, d'autres petits animaux ou certains insectes ?

(Gemini) Il est vrai que certaines petites espèces animales, comme les fourmis, les cafards et certains insectes, présentent une grande capacité d'adaptation et peuvent coloniser une large variété d'environnements.

- Les fourmis, par exemple, sont présentes sur presque tous les continents et dans de nombreux habitats, des forêts tropicales aux déserts en passant par les villes. Elles ont développé des structures sociales complexes, des techniques de communication sophistiquées et la capacité à exploiter une grande variété de ressources alimentaires. 

- Les cafards sont également connus pour leur résilience et leur capacité à s'adapter à des environnements difficiles. Ils peuvent survivre dans des conditions de manque de nourriture et d'eau et sont résistants à de nombreux pesticides.

- Certains insectes, comme les mouches et les moustiques, ont également une grande capacité d'adaptation et peuvent coloniser des environnements très variés. Ils sont souvent vecteurs de maladies et peuvent poser des problèmes de santé publique.

Cependant même ces petites espèces n'ont pas le même niveau de succès d'adaptation que les humains.

(FLP) - Et le tardigrade ?

(GEMINI) Effectivement, le tardigrade, aussi appelé ours d'eau, est un animal microscopique connu pour sa résistance extrême aux conditions extrêmes. Il peut survivre à des températures allant de -459 degrés Celsius à 151 degrés Celsius, à des radiations intenses, à des pressions immenses et même au vide spatial.

On trouve cet extrémophile, (organisme capable de vivre dans des environnements que la plupart des autres espèces ne pourraient pas supporter) se trouve dans presque tous les milieux aquatiques et terrestres, y compris dans les sources chaudes, les glaciers et les mousses.

Cependant, il est important de noter que le tardigrade n'a pas le même niveau de succès d'adaptation que les humains car il ne sont pas capables, contrairement aux humains,  de coloniser et de modifier tous les biotopes de la planète. Ils sont limités à des environnements extrêmes où peu d'autres espèces peuvent survivre.Car les tardigrades n'ont pas les mêmes capacités cognitives que sapiens. Ils ne sont pas capables de résoudre des problèmes complexes, d'apprendre de nouvelles choses ou de développer des technologies.

(FLP) - Au niveau bactériel il y a ou il y a eu une complète diffusion sur terre, non ?

(Gemini)  Oui, c'est exact. Les bactéries sont les organismes les plus répandus sur Terre. On les trouve dans presque tous les environnements, des sources chaudes aux glaciers, en passant par le corps humain. Leur capacité d'adaptation exceptionnelle leur a permis de coloniser l'ensemble de la planète.

(FLP ) - Et les humains, on peut dire la même chose ?

(Gemini) - Non, pas du tout. Les humains sont certes présents sur tous les continents, mais leur répartition est beaucoup plus inégale que celle des bactéries. Il existe des zones densément peuplées, comme les grandes villes d'Asie, et d'autres zones très peu peuplées, comme les régions polaires. De plus, les humains ont un impact important sur leur environnement, ce qui peut limiter leur diffusion dans certains endroits.

(FLP) - Donc, on ne peut pas vraiment parler d'une diffusion complète des humains sur Terre ?

(Gemini) - Non, en effet. L'utilisation du terme "diffusion" n'est pas tout à fait appropriée dans le cas des humains. Il serait plus juste de parler de dispersion ou de colonisation. Les humains se sont dispersés à travers le monde au cours de l'histoire, mais leur répartition n'est pas homogène et ils continuent de modifier leur environnement de manière significative.

(FLP) - Donc, il y a une grande différence entre la diffusion des bactéries et celle des humains ?

Gemini - oui, les bactéries sont des organismes microscopiques qui se dispersent naturellement par le vent, l'eau et les animaux. Les humains, en revanche, sont des organismes beaucoup plus complexes qui ont développé des technologies et des modes de vie qui leur permettent de contrôler leur dispersion et de modifier leur environnement.



 

Auteur: Google Bard chatbot

Info: 19 mai 2024

[ ubiquité humaine ] [ homme-animal ] [ dialogue homme-machine ] [ évolution du vivant ]

 

Commentaires: 0

Ajouté à la BD par miguel

greenwashing

1/ La construction, l’installation, l’entretien (usage de produits nettoyants, de désherbant) des "fermes" solaires possède un lourd impact écologique. Il faut extraire les métaux et autres minerais, fondre la silice a très haute température pour obtenir le silicium, etc. Et qui dit extractions minières dit destructions environnementales et pollutions. Au préalable, il faut avoir construit les machines qui permettent d’extraire, transporter et traiter lesdits minerais, ainsi que les machines pour construire ces machines, et ainsi de suite — c’est un large ensemble d’industries qui sont nécessaires pour fabriquer des panneaux solaires (la même chose est vraie de n’importe quel objet de la civilisation industrielle). Par ailleurs, leur durée de vie ne dépasse guère vingt à trente ans ; ils ne sont ensuite que partiellement recyclés, génèrent donc des déchets, et n’ont pas grand-chose de "renouvelables" (sachant que le recyclage est en lui-même une industrie énergivore, qui requiert des machines, des machines qu’il faut construire, etc. — sachant, en d’autres termes, que le recyclage n’est pas non plus écologique). Enfin, des études récentes semblent montrer que la haute température des panneaux est mortelle pour les insectes qui les survolent, déjà durement éprouvés pour d’autres raisons.

2/ Les panneaux solaire n’ont de plus probablement jamais permis d’éviter un seul gramme d’émissions de gaz à effet de serre. En effet, les nouvelles sources d’énergie ne font que s’ajouter aux précédentes tandis que la production totale ne fait que croitre. On exploite les hydrocarbures partout où on le peut (gaz de schiste, sables bitumineux, gisements arctiques) et de surcroit on détruit les forêts pour construire des panneaux solaires. Il y a addition, et non remplacement.

La part prise par l’énergie solaire photovoltaïque est au demeurant extrêmement faible dans la consommation totale d’énergie (une tromperie commune consiste à ne parler que de l’électricité en oubliant que le gros de notre énergie est issue d’hydrocarbures de façon directe sans passer par la forme électrique), soit 0,4% du total dans le monde et 0,8 % en France. Cette légère augmentation ne suffit pas même à compenser la profusion de nouveaux "besoins" énergétiques créés par les technologies nouvelles.

Ainsi, la consommation d’électricité mondiale du seul bitcoin est dix fois supérieure à la production d’électricité photovoltaïque de la France, et trois fois supérieure à celle de l’Allemagne dont on vante l’avance dans le domaine. Interdire une crypto-monnaie, qui n’est au fond pas grand-chose de plus qu’une pyramide de Ponzi permettant à certains de spéculer, à d’autres de blanchir de l’argent et financer des activités illicites, ferait plus pour limiter les besoins en électricité fossile que des décennies de subventions massives du photovoltaïque.

3/ Un argument encore plus fort est celui du cannibalisme énergétique, qui prend en compte le fait que la construction de panneaux solaires est très couteuse en énergies fossiles sous une forme ou sous une autre (mines, fonte des métaux, du silicium, camions pour leur mise en place…). Si le déploiement de l’énergie censé remplacer les fossiles se fait à un rythme élevé, le secteur de substitution sera pendant la période de déploiement consommateur net d’énergie. En effet, si un panneau solaire, sur ses 20 à 25 années de durée de vie produit en 7 ans une quantité d’énergie qui compense celle nécessaire à sa construction, mais que dans le même temps on a construit deux autres panneaux, alors il faudra encore attendre pour que la construction de tous ces panneaux soit compensée, et si on ne cesse d’en construire toujours plus, alors le secteur augmente la demande de fossiles au lieu de la réduire. Au mieux, ce ne sera qu’au bout de longues décennies que le secteur cessera de croître et pourra réellement compenser les émissions liées à son déploiement. Le problème c’est que, comme le disent les climatologues, après plusieurs décennies, il sera trop tard.

4/ Pire encore. Au même titre que l’énergie fossile ou nucléaire, l’énergie produite par les panneaux solaires (ou les éoliennes, ou n’importe quelle autre source d’énergie dite verte, propre, renouvelable ou décarbonée) ne sert par définition qu’à alimenter d’autres appareils, d’autres machines issues du système techno-industriel ; à alimenter les infrastructures industrielles et numériques de la machine à détruire la nature qu’est devenue notre société, à alimenter les smartphones, les ordinateurs, les écrans de télévision, les voitures (électriques), l’inutile pollution lumineuse, les serveurs financiers, les usines d’aluminium, les écrans publicitaires dans l’espace public poussant à surconsommer, etc. (de plus en plus de compagnies minières se tournent vers les centrales de production d’énergie dite renouvelable, verte ou propre, notamment le solaire ou l’éolien, afin d’alimenter leurs installations d’extractions minières, pour la raison que ces centrales sont relativement simples à mettre en place). L’électricité produite par les centrales de production d’énergie dites vertes, propres ou renouvelables est donc elle-même largement néfaste écologiquement, dans ses usages, indépendamment de la façon dont elle est produite.

5/ On pourrait enfin évoquer un argument d’ordre culturel et politique. Les panneaux solaires (et éoliennes), négligeables en ce qui concerne les réalités du système énergétiques, sont omniprésent dans les discours, images et communication du grand récit officiel : "le développement durable". À ce titre, on peut penser que leur rôle principal est celui d’une diversion, d’objets inutiles mais rassurant au service du consentement à l’ordre établi. Il n’y a pas à s’inquiéter pour l’avenir, ni à restreindre sa consommation, ce n’est pas la peine de renoncer à l’automobile ou à l’avion : les énergies renouvelables sont là pour nous permettre de conserver pour toujours la débauche énergétique actuelle. Il suffit d’investir où il faut son épargne, de favoriser la finance verte ou de lancer un vaste plan d’investissement public.

Auteur: Autard Jean

Info: https://www.partage-le.com/2022/03/22/les-panneaux-solaires-ne-sont-pas-ecologiques-par-jean-autard/

[ coûts cachés ] [ déresponsabilisation ] [ solution miracle ] [ critique ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

bio-mathématiques

C’est confirmé : vous êtes constitué de cristaux liquides

Une équipe de chercheurs a réussi à prouver l’existence d’une double symétrie dans les tissus organiques, qui permet de les appréhender comme des cristaux liquides. Cette découverte pourrait faire émerger une nouvelle façon d’étudier le fonctionnement du vivant, à la frontière de la biologie et de la mécanique des fluides.

Dans une étude parue dans le prestigieux journal Nature et repérée par Quanta Magazine, des chercheurs ont montré que les tissus épithéliaux, qui constituent la peau et les enveloppes des organes internes, ne sont pas que des amas de cellules réparties de façon aléatoire. Ils présentent en fait deux niveaux de symétrie bien définis qui leur donnent des propriétés fascinantes; fonctionnellement, on peut désormais les décrire comme des cristaux liquides. Une découverte qui pourrait avoir des retombées potentiellement très importantes en médecine.

Ces travaux tournent entièrement autour de la notion de cristal liquide. Comme leur nom l’indique, il s’agit de fluides; techniquement, ils peuvent donc s’écouler comme de l’eau – mais avec une différence importante. Contrairement aux liquides classiques, où les atomes se déplacent les uns par rapport aux autres de façon complètement chaotique, les constituants d’un cristal liquide présentent tout de même un certain degré d’organisation.

Il ne s’agit pas d’une vraie structure cristalline comme on en trouve dans presque tous les minéraux, par exemple. Les cristaux liquides ne sont pas arrangés selon un motif précis qui se répète dans l’espace. En revanche, ils ont tendance à s’aligner dans une direction bien spécifique lorsqu’ils sont soumis à certains facteurs, comme une température ou un champ électrique.

C’est cette directionnalité, appelée anisotropie, qui est à l’origine des propriétés des cristaux liquides. Par exemple, ceux qui sont utilisés dans les écrans LCD (pour Liquid Crystal Display) réfractent la lumière différemment en fonction de leur orientation. Cela permet d’afficher différentes couleurs en contrôlant localement l’orientation du matériau grâce à de petites impulsions électriques.

Du tissu biologique au cristal liquide

Mais les cristaux liquides n’existent pas seulement dans des objets électroniques. Ils sont aussi omniprésents dans la nature ! Par exemple, la double couche de lipides qui constitue la membrane de nos cellules peut être assimilée à un cristal liquide. Et il ne s’agit pas que d’une anecdote scientifique ; cette organisation est très importante pour maintenir à la fois l’intégrité structurelle et la flexibilité de ces briques fondamentales. En d’autres termes, la dynamique des cristaux liquides est tout simplement essentielle à la vie telle qu’on la connaît.

Pour cette raison, des chercheurs essaient d’explorer plus profondément le rôle biologique des cristaux liquides. Plus spécifiquement, cela fait quelques années que des chercheurs essaient de montrer que les tissus, ces ensembles de cellules organisées de façon à remplir une mission bien précise, peuvent aussi répondre à cette définition.

Vu de l’extérieur, l’intérêt de ces travaux est loin d’être évident. Mais il ne s’agit pas seulement d’un casse-tête très abstrait ; c’est une question qui regorge d’implications pratiques très concrètes. Car si l’on parvient à prouver que les tissus peuvent effectivement être assimilés à des cristaux liquides, cela débloquerait immédiatement un nouveau champ de recherche particulièrement vaste et fascinant. Les outils mathématiques que les physiciens utilisent pour prédire le comportement des cristaux pourraient soudainement être appliqués à la biologie cellulaire, avec des retombées considérables pour la recherche fondamentale et la médecine clinique.

Mais jusqu’à présent, personne n’a réussi à le prouver. Tous ces efforts se sont heurtés au même mur mathématique — ou plus précisément géométrique ; les théoriciens et les expérimentateurs ne sont jamais parvenus à se mettre d’accord sur la symétrie intrinsèque des tissus biologiques. Regrettable, sachant qu’il s’agit de LA caractéristique déterminante d’un cristal liquide.

Les deux concepts enfin réconciliés

Selon Quanta Magazine, certains chercheurs ont réussi à montrer grâce à des simulations informatiques que les groupes de cellules pouvaient présenter une symétrie dite " hexatique ". C’est ce que l’on appelle une symétrie d’ordre six, où les éléments sont arrangés par groupe de six. Mais lors des expériences en laboratoire, elles semblent plutôt adopter une symétrie dite " nématique* ". Pour reprendre l’analogie de Quanta, selon ce modèle, les cellules se comportent comme un fluide composé de particules en forme de barres, un peu comme des allumettes qui s’alignent spontanément dans leur boîte. Il s’agit alors d’une symétrie d’ordre deux. 

C’est là qu’interviennent les auteurs de ces travaux, affiliés à l’université néerlandaise de Leiden. Ils ont suggéré qu’il serait possible d’établir un lien solide entre les tissus biologiques et le modèle des cristaux liquides, à une condition : il faudrait prouver que les tissus présentent les deux symétries à la fois, à des échelles différentes. Plus spécifiquement, les cellules devraient être disposées selon une symétrie d’ordre deux à grande échelle, avec une symétrie d’ordre six cachée à l’intérieur de ce motif qui apparaît lorsque l’on zoome davantage.

L’équipe de recherche a donc commencé par cultiver des couches très fines de tissus dont les contours ont été mis en évidence grâce à un marqueur. Mais pas question d’analyser leur forme à l’œil nu ; la relation qu’ils cherchaient à établir devait impérativement être ancrée dans des données objectives, et pas seulement sur une impression visuelle. Selon Quanta, ils ont donc eu recours à un objet mathématique appelé tenseur de forme grâce auquel ils ont pu décrire mathématiquement la forme et l’orientation de chaque unité.

Grâce à cet outil analytique, ils ont pu observer expérimentalement cette fameuse double symétrie. À grande échelle, dans des groupes de quelques cellules, ils ont observé la symétrie nématique qui avait déjà été documentée auparavant. Et en regardant de plus près, c’est une symétrie hexatique qui ressortait — exactement comme dans les simulations informatiques. " C’était assez incroyable à quel point les données expérimentales et les simulations concordaient ", explique Julia Eckert, co-autrice de ces travaux citée par Quanta.

Une nouvelle manière d’appréhender le fonctionnement du vivant

C’est la première fois qu’une preuve solide de cette relation est établie, et il s’agit incontestablement d’un grand succès expérimental. On sait désormais que certains tissus peuvent être appréhendés comme des cristaux liquides. Et cette découverte pourrait ouvrir la voie à un tout nouveau champ de recherche en biologie.

Au niveau fonctionnel, les implications concrètes de cette relation ne sont pas encore parfaitement claires. Mais la bonne nouvelle, c’est qu’il sera désormais possible d’utiliser des équations de mécanique des fluides qui sont traditionnellement réservées aux cristaux liquides pour étudier la dynamique des cellules.

Et cette nouvelle façon de considérer les tissus pourrait avoir des implications profondes en médecine. Par exemple, cela permettra d’étudier la façon dont certaines cellules migrent à travers les tissus. Ces observations pourraient révéler des mécanismes importants sur les premières étapes du développement des organismes, sur la propagation des cellules cancéreuses qui génère des métastases, et ainsi de suite.

Mais il y a encore une autre perspective encore plus enthousiasmante qui se profile à l’horizon. Il est encore trop tôt pour l’affirmer, mais il est possible que cette découverte représente une petite révolution dans notre manière de comprendre la vie.

En conclusion de l’article de Quanta, un des auteurs de l’étude résume cette idée en expliquant l’une des notions les plus importantes de toute la biologie. On sait depuis belle lurette que l’architecture d’un tissu est à l’origine d’un certain nombre de forces qui définissent directement ses fonctions physiologiques. Dans ce contexte, cette double symétrie pourrait donc être une des clés de voûte de la complexité du vivant, et servir de base à des tas de mécanismes encore inconnus à ce jour ! Il conviendra donc de suivre attentivement les retombées de ces travaux, car ils sont susceptibles de transformer profondément la biophysique et la médecine.

 

Auteur: Internet

Info: Antoine Gautherie, 12 décembre 2023. *Se dit de l'état mésomorphe, plus voisin de l'état liquide que de l'état cristallisé, dans lequel les molécules, de forme allongée, peuvent se déplacer librement mais restent parallèles entre elles, formant ainsi un liquide biréfringent.

[ double dualité ] [ tétravalence ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde verrouillé

Comment un tour de passe-passe mathématique a sauvé la physique des particules

La renormalisation est peut-être l'avancée la plus importante de la physique théorique depuis 50 ans. 

Dans les années 1940, certains physiciens avant-gardistes tombèrent sur une nouvelle couche de la réalité. Les particules n'existaient plus et les champs - entités expansives et ondulantes qui remplissent l'espace comme un océan - étaient dedans. Une ondulation dans un champ était un électron, une autre un photon, et leurs interactions semblaient expliquer tous les événements électromagnétiques.

Il n'y avait qu'un seul problème : la théorie était constituée d'espoirs et de prières. Ce n'est qu'en utilisant une technique appelée "renormalisation", qui consiste à occulter soigneusement des quantités infinies, que les chercheurs purent éviter les prédictions erronées. Le processus fonctionnait, mais même ceux qui développaient la théorie soupçonnaient qu'il s'agissait d'un château de cartes reposant sur un tour de passe-passe mathématique tortueux.

"C'est ce que j'appellerais un processus divertissant", écrira plus tard Richard Feynman. "Le fait de devoir recourir à de tels tours de passe-passe nous a empêchés de prouver que la théorie de l'électrodynamique quantique est mathématiquement cohérente.

La justification vint des décennies plus tard, d'une branche de la physique apparemment sans rapport. Les chercheurs qui étudiaient la magnétisation découvrirent que la renormalisation ne concernait aucunement les infinis. Elle évoquait plutôt la séparation de l'univers en domaines de tailles distinctes, point de vue qui guide aujourd'hui de nombreux domaines de la physique.

La renormalisation, écrit David Tong, théoricien à l'université de Cambridge, est "sans doute l'avancée la plus importante de ces 50 dernières années dans le domaine de la physique théorique".

L'histoire de deux charges

Selon certains critères, les théories des champs sont les théories les plus fructueuses de toute la science. La théorie de l'électrodynamique quantique (QED), qui constitue l'un des piliers du modèle standard de la physique des particules, a permis de faire des prédictions théoriques qui correspondent aux résultats expérimentaux avec une précision d'un sur un milliard.

Mais dans les années 1930 et 1940, l'avenir de la théorie était loin d'être assuré. L'approximation du comportement complexe des champs donnait souvent des réponses absurdes et infinies, ce qui amena certains théoriciens à penser que les théories des champs étaient peut-être une impasse.

Feynman et d'autres cherchèrent de toutes nouvelles perspectives - éventuellement même susceptibles de ramener les particules sur le devant de la scène - mais ils finirent par trouver un moyen de contourner l'obstacle. Ils constatèrent que les équations QED  permettaient d'obtenir des prédictions respectables, à condition qu'elles soient corrigées par la procédure impénétrable de renormalisation.

L'exercice est le suivant. Lorsqu'un calcul QED conduit à une somme infinie, il faut l'abréger. Mettez la partie qui tend vers l'infini dans un coefficient - un nombre fixe - placé devant la somme. Remplacez ce coefficient par une mesure finie provenant du laboratoire. Enfin, laissez la somme nouvellement apprivoisée retourner à l'infini.

Pour certains, cette méthode s'apparente à un jeu de dupes. "Ce ne sont tout simplement pas des mathématiques raisonnables", écrivit Paul Dirac, théoricien quantique novateur.

Le cœur du problème - germe de sa solution éventuelle - se trouve dans la manière dont les physiciens ont traité la charge de l'électron.

Dans ce schéma la charge électrique provient du coefficient - la valeur qui engloutit l'infini au cours du brassage mathématique. Pour les théoriciens qui s'interrogeaient sur la signification physique de la renormalisation, la théorie QED laissait entendre que l'électron avait deux charges : une charge théorique, qui était infinie, et la charge mesurée, qui ne l'était pas. Peut-être que le noyau de l'électron contenait une charge infinie. Mais dans la pratique, les effets de champ quantique (qu'on peut visualiser comme un nuage virtuel de particules positives) masquaient l'électron, de sorte que les expérimentateurs ne mesuraient qu'une charge nette modeste.

Deux physiciens, Murray Gell-Mann et Francis Low, concrétisèrent cette idée en 1954. Ils ont relié les deux charges des électrons à une charge "effective" qui varie en fonction de la distance. Plus on se rapproche (et plus on pénètre le manteau positif de l'électron), plus la charge est importante.

Leurs travaux furent les premiers à lier la renormalisation à l'idée d'échelle. Ils laissaient entendre que les physiciens quantiques avaient trouvé la bonne réponse à la mauvaise question. Plutôt que de se préoccuper des infinis, ils auraient dû s'attacher à relier le minuscule à l'énorme.

La renormalisation est "la version mathématique d'un microscope", a déclaré Astrid Eichhorn, physicienne à l'université du Danemark du Sud, qui utilise la renormalisation pour ses recherches en théorie de la gravité quantique. "Et inversement, vous pouvez commencer par le système microscopique et faire un zoom arrière. C'est une combinaison de microscope et de télescope".

La renormalisation capture la tendance de la nature à se subdiviser en mondes essentiellement indépendants.

Les aimants sauvent la mise

Un deuxième indice apparut dans le monde de la matière condensée, ici les physiciens s'interrogeaient sur la manière dont un modèle magnétique grossier parvenait à saisir les détails de certaines transformations. Le modèle d'Ising n'était guère plus qu'une grille de flèches atomiques qui ne pouvaient pointer que vers le haut ou vers le bas, mais il prédisait les comportements d'aimants réels avec une perfection improbable.

À basse température, la plupart des atomes s'alignent, ce qui magnétise le matériau. À haute température, ils deviennent désordonnés et le réseau se démagnétise. Mais à un point de transition critique, des îlots d'atomes alignés de toutes tailles coexistent. Il est essentiel de noter que la manière dont certaines quantités varient autour de ce "point critique" semble identique dans le modèle d'Ising, dans les aimants réels de différents matériaux et même dans des systèmes sans rapport, tels que la transition à haute pression où l'eau devient indiscernable de la vapeur d'eau. La découverte de ce phénomène, que les théoriciens ont appelé universalité, était aussi bizarre que de découvrir que les éléphants et les aigrettes se déplacent exactement à la même vitesse de pointe.

Les physiciens n'ont pas pour habitude de s'occuper d'objets de tailles différentes en même temps. Mais ce comportement universel autour des points critiques les obligea à tenir compte de toutes les échelles de longueur à la fois.

Leo Kadanoff, chercheur dans le domaine de la matière condensée, a compris comment procéder en 1966. Il a mis au point une technique de "spin par blocs", en décomposant une grille d'Ising trop complexe pour être abordée de front, en blocs modestes comportant quelques flèches par côté. Il calcula l'orientation moyenne d'un groupe de flèches et  remplaça tout le bloc par cette valeur. En répétant le processus, il lissa les détails fins du réseau, faisant un zoom arrière pour comprendre le comportement global du système.

Enfin, Ken Wilson -  ancien étudiant de Gell-Mann qui avait les pieds tant dans le monde de la physique des particules et de la matière condensée -  réunit les idées de Gell-Mann et de Low avec celles de Kadanoff. Son "groupe de renormalisation", qu'il décrivit pour la première fois en 1971, justifiait les calculs tortueux de la QED et a fourni une échelle permettant de gravir les échelons des systèmes universels. Ce travail a valu à Wilson un prix Nobel et a changé la physique pour toujours.

Selon Paul Fendley, théoricien de la matière condensée à l'université d'Oxford, la meilleure façon de conceptualiser le groupe de renormalisation de Wilson est de le considérer comme une "théorie des théories" reliant le microscopique au macroscopique.

Considérons la grille magnétique. Au niveau microscopique, il est facile d'écrire une équation reliant deux flèches voisines. Mais extrapoler cette simple formule à des trillions de particules est en fait impossible. Vous raisonnez à la mauvaise échelle.

Le groupe de renormalisation de Wilson décrit la transformation d'une théorie des éléments constitutifs en une théorie des structures. On commence avec une théorie de petits éléments, par exemple les atomes d'une boule de billard. On tourne la manivelle mathématique de Wilson et on obtient une théorie connexe décrivant des groupes de éléments, par exemple les molécules d'une boule de billard. En continuant de tourner la manivelle, on obtient des groupes de plus en plus grands - grappes de molécules de boules de billard, secteurs de boules de billard, et ainsi de suite. Finalement, vous voilà en mesure de calculer quelque chose d'intéressant, comme la trajectoire d'une boule de billard entière.

Telle est la magie du groupe de renormalisation : Il permet d'identifier les quantités à grande échelle qu'il est utile de mesurer et les détails microscopiques alambiqués qui peuvent être ignorés. Un surfeur s'intéresse à la hauteur des vagues, et non à la bousculade des molécules d'eau. De même, en physique subatomique, la renormalisation indique aux physiciens quand ils peuvent s'occuper d'un proton relativement simple plutôt que de son enchevêtrement de quarks intérieurs.

Le groupe de renormalisation de Wilson suggère également que les malheurs de Feynman et de ses contemporains venaient du fait qu'ils essayaient de comprendre l'électron d'infiniment près. "Nous ne nous attendons pas à ce que  ces théories soient valables jusqu'à des échelles [de distance] arbitrairement petites", a déclaré James Fraser, philosophe de la physique à l'université de Durham, au Royaume-Uni. Ajoutant : "La coupure absorbe notre ignorance de ce qui se passe aux niveaux inférieurs".

En d'autres termes, la QED et le modèle standard ne peuvent tout simplement pas dire quelle est la charge nue de l'électron à une distance de zéro nanomètre. Il s'agit de ce que les physiciens appellent des théories "effectives". Elles fonctionnent mieux sur des distances bien définies. L'un des principaux objectifs de la physique des hautes énergies étant de découvrir ce qui se passe exactement lorsque les particules deviennent encore plus proches.

Du grand au petit

Aujourd'hui, le "dippy process" de Feynman est devenu aussi omniprésent en physique que le calcul, et ses mécanismes révèlent les raisons de certains des plus grands succès de la discipline et de ses défis actuels. Avec la renormalisation, les câpres submicroscopiques compliqués ont tendance à disparaître. Ils sont peut-être réels, mais ils n'ont pas d'incidence sur le tableau d'ensemble. "La simplicité est une vertu", a déclaré M. Fendley. "Il y a un dieu là-dedans.

Ce fait mathématique illustre la tendance de la nature à se diviser en mondes essentiellement indépendants. Lorsque les ingénieurs conçoivent un gratte-ciel, ils ignorent les molécules individuelles de l'acier. Les chimistes analysent les liaisons moléculaires mais ignorent superbement les quarks et les gluons. La séparation des phénomènes par longueur, quantifiée par le groupe de renormalisation, a permis aux scientifiques de passer progressivement du grand au petit au cours des siècles, plutôt que briser toutes les échelles en même temps.

En même temps, l'hostilité de la renormalisation à l'égard des détails microscopiques va à l'encontre des efforts des physiciens modernes, avides de signes du domaine immédiatement inférieur. La séparation des échelles suggère qu'ils devront creuser en profondeur pour surmonter le penchant de la nature à dissimuler ses points les plus fins à des géants curieux comme nous.

"La renormalisation nous aide à simplifier le problème", explique Nathan Seiberg, physicien théoricien à l'Institute for Advanced Study de Princeton, dans le New Jersey. Mais "elle cache aussi ce qui se passe à très courte distance. On ne peut pas avoir le beurre et l'argent du beurre".


Auteur: Internet

Info: https://www.quantamagazine.org/. Charlie Wood, september 17, 2020

 

Commentaires: 0

Ajouté à la BD par miguel