Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 76
Temps de recherche: 0.0553s

outil technologique

Là où manque l'occasion d'extérioriser un talent, continue Feuerbach, le talent manque aussi ; (là où il n’y a pas d’espace pour l’action, il n'y a pas non plus d’impulsion : l’espace est la condition fondamentale de la vie de l’esprit : où l’espace manque pour extérioriser une capacité, manque aussi la capacité elle-même, etc.) ; et par suite, en conséquence, chaque nouvel appareil ou machine électrique dont la commodité s’installe dans notre privauté ou l’organisation sociale fait la dispense d’une capacité, d’un talent, d’une faculté que nous possédions auparavant ; opère une diminution fatale, une soustraction : chaque progrès technique abêtit la partie correspondante de l'homme, ne lui en laissant que la rhétorique, ainsi que Michelstaedter le rédigeait en 1910 à la lueur d’une lampe à huile : tous les progrès de la civilisation sont autant de régressions de l'individu (et qui se suicidait le lendemain). Nous autres dont la vie se déroule au crépuscule de ce long désenchantement à quoi le principe de rationalisme étroit et positif nous a réduits – régression qui “est essentielle au développement conséquent de la domination”, précise Adorno dans une annotation au Meilleur des mondes – pourrions être les témoins étonnés de ce processus de déperdition parvenu à son terme, si nous n’en étions pas, en notre personne, aussi le résultat.

C’est par définition qu’une victime d’un rétrécissement de la conscience n’en est pas consciente ; (d’où l’intérêt de ces tests de dépistage précoce de l’ESB humaine ou de l’Alzheimer pour en informer l’usager pendant qu’il comprend encore ce qu’on lui dit).

Suivons néanmoins cette idée (que notre conscience est conditionnée par notre présence physique dans le monde, que c’est l’obligation d'être là en personne qui nous fait conscients ; et qu’aussi bien c’est seulement par la conscience que nous pouvons être là en personne) : les appareils et machines de la vie facile, de la satisfaction immédiate et sans peine ne nous dépouillent donc pas seulement des facultés, talents et capacités qu’ils remplacent, mais, en même temps que de la fatigue à les employer, de l'effort et de l'attention indispensables, de la contrainte d’être là en personne ; et donc aussi de la conscience de soi, qui était seulement à l’occasion de cet exercice.

& c'est ici que je vous prie de renouveler votre attention : quand, fatigué, on prend l’ascenseur pour gagner son étage, qu’on est transféré directement de la rue à l’étage, on a forcément moins conscience de rentrer chez soi (et l’on ne peut pas se rendre compte de combien c’en est peu un) ; et l’on n’est pas seulement privé du temps passé avec soi-même en montant l’escalier, et avec la fatigue, du plaisir d’y atteindre, mais aussi bien de l’emploi de ses jambes : de la faculté de rentrer chez soi par ses propres moyens.

(Et c’est pourquoi ce sont des imbéciles ou des inconscients, ceux qui disent : c’est la même chose de recevoir des e-mails que des lettres dans la boîte au rez-de-chaussée : des malheureux surtout qui resteront toute leur existence dans l’ignorance de ce que c’est de remonter l’escalier dans la solitude de cette lettre qui n’est toujours pas venue, ou, enfin, un jour, qui est là avec son écriture dessus. Leur âme restera toujours vide de ces minutes-là, qui sont toute la clarté, toute la lumière, etc., “et nous restons sous leur emprise notre vie durant” ; de ces brefs moments “qui pourtant nous suffisent pour l’éternité” : par où notre existence est à elle-même sa propre éternité ; leur âme restera vide de cet escalier et un jour le néant les avalera comme se referme la porte automatique de l’ascenseur.)

Auteur: Bodinat Baudouin de pseudo

Info: La vie sur terre. Paris : Éditions de l’Encyclopédie des nuisances

[ critique ] [ réducteur d'expérience humaine ] [ appauvrissement sensible ] [ perte du poids de l'incarnation ]

 
Mis dans la chaine
Commentaires: 18
Ajouté à la BD par Coli Masson

compétition évolutionniste

Le grand paradoxe des êtres vivants : l’hypothèse de la reine rouge

Cette célèbre théorie tient son nom d’" Alice au pays des merveilles " et explique pourquoi nous sommes condamnés à sans cesse évoluer.

( Image : Selon la théorie de la reine rouge, la majeure partie de la biodiversité actuelle est donc le résultat de " processus coévolutifs ", c'est-à-dire des interactions entre les vivants.)

Selon la théorie de la reine rouge, l'humanité marche sur un gigantesque tapis roulant : pour faire du sur-place, il faut déjà marcher ; et, pour avancer, il faut accélérer. Impossible d'arrêter notre progrès technologique. Ce phénomène de l'évolution naturelle révèle le grand paradoxe des êtres vivants.

Cette hypothèse sort tout droit de l'esprit du très célèbre et sulfureux biologiste américain Leigh Van Valen, de l'université de Chicago. Connu pour avoir nommé 20 mammifères fossiles qu'il a découverts d'après des personnages de la fiction de J. R. R. Tolkien Le Seigneur des anneaux, il doit surtout sa célébrité à son hypothèse célèbre, parmi l'une des plus citées dans la littérature de l'évolution : l'hypothèse de la reine rouge.

Une course aux armements

Pour comprendre cette théorie, prenons l'exemple de la gazelle et du léopard. Le guépard, au début de son évolution, fait la taille d'un chat domestique et n'est pas particulièrement rapide. La gazelle, de son côté, n'est pas balèze non plus. Évidemment, la gazelle est chassée par le guépard. À chaque génération, pour protéger ses gènes et sa dépendance, les petits de la gazelle sont sélectionnés pour leur capacité à éviter d'être chassés. C'est la sélection naturelle qui récompense les gazelles qui courent le plus vite.

Mais, en parallèle, le guépard doit lui aussi continuer à manger. Donc, à chaque génération, ce sont aussi ceux qui courent le plus vite qui sont favorisés. Cette cohabitation sur la Terre entre la proie et le prédateur produit un effet permanent d'escalade. Le premier qui arrête de gagner en vitesse disparaît.

Le mieux qu’une espèce peut faire pour survivre est de répondre sans cesse aux adaptations d’un adversaire.

Selon la théorie de la reine rouge, la majeure partie de la biodiversité actuelle est donc le résultat de " processus coévolutifs ", c'est-à-dire des interactions entre les vivants. En se basant sur l'étude des fossiles, Leigh Van Valen affirme que la durée d'existence d'une espèce ne dit rien sur ses chances de disparaître. Pour lui, l'évolution est une " surenchère des armements ". Le mieux qu'une espèce peut faire pour survivre est de répondre sans cesse aux adaptations d'un adversaire.

Nous sommes obligés de courir pour rester au même endroit

Le nom de cette hypothèse est tiré directement du livre de Lewis Caroll De l'autre côté du miroir, le deuxième volet d'Alice au pays des merveilles. C'est une référence à un passage dans le récit où Alice est en train de marcher avec la reine rouge. Malgré des heures de marche, elles stagnent au même endroit. Face à l'interrogation d'Alice, la reine lui répond : " Ici, vois-tu, on est obligés de courir tant qu'on peut pour rester au même endroit. Si on veut aller ailleurs, il faut courir au moins deux fois plus vite que ça ! "

Ce modèle d'évolution s'applique à beaucoup de domaines. Comme le raconte la théorie de la reine rouge, l'humanité, elle aussi, est condamnée à toujours avancer. " Nous aurions bien aimé, peut-être, à un moment de notre histoire, ralentir pour ne pas dévaster notre environnement et ne pas nous trouver dans une situation à risque d'effondrement. Mais nous ne le pouvons pas ", explique l'écologiste et chercheur au CNRS Vincent Mignerot dans une conférence sur le " syndrome de la reine rouge " à l'université Bretagne-Sud. Nous serions comme bloqués dans un escalator interminable.





 

Auteur: Internet

Info: https://www.lepoint.fr/ -  Joseph Le Corre, 2 avril 2024

[ co-évolutions ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

transhumanisme

Les robots "surhumains" seront en mesure de dépasser les capacités de l'humanité d'ici un demi-siècle, avertit un expert en intelligence artificielle, soulignant qu'il est vital d'introduire des garanties afin d'éviter que l'humanité soit "remplacée".

Luca De Ambroggi, responsable de la recherche et de l'analyse des solutions d'IA au sein de l'équipe Transformative Technology d'IHS Markit, fournisseur mondial d'informations basé à Londres, a déclaré à Express.co.uk : "Dans 50 ans, il est raisonnable de penser que les robots seront capables de "soutenir" et de remplacer l'être humain dans plusieurs activités. Déjà, les appareils électromécaniques surpassent les humains en sensibilité et en temps de réaction." Compte tenu des progrès technologiques considérables réalisés au cours de la dernière décennie, M. Ambroggi a déclaré que 50 ans étaient "suffisants" pour combler plusieurs fossés avec l'être humain.

Et d'ajouter : – Même si notre cerveau aura encore des avantages et que les êtres humains resteront plus dynamiques et polyvalents, l'électronique pourra surpasser les humains dans plusieurs fonctions spécifiques. Comme elle le fait déjà aujourd'hui, de la vision industrielle, à la reconnaissance audio et vocale.

- La question à long terme est de savoir si les "personnes remplacées" pourront être requalifiées et continuer à apporter de la valeur ajoutée dans notre société. Il continue : "L'intelligence artificielle est là, et elle est là pour le long terme.

- Nous sommes dans l'ère dite étroite ou faible, de l'IA. Elle est "plus faible" que l'humain ou égale ou supérieure pour quelques tâches et sens limités. Quelle que soit la façon dont elle perturbe la société et son évolution, cela aura des répercussions majeures sur la sécurité des données, le travail et l'éthique.

- Cette ère est celle de l'IA multimodale générique, comparable à une intelligence humaine appliquée dans tous les sens et travaillant puissamment en parallèle. Par exemple, pour ce qui est de l'électronique de détection et du support des semi-conducteurs, pour les capacités de vision, d'écoute, de toucher, ainsi que d'odorat et de goût avec les dernières technologies MEMS.

- Nous devons revenir à l'éthique. Il est communément admis que l'intelligence artificielle et ses dispositifs/robots vont accroître le business et la richesse dans le monde entier. C'est encore une fois aux régulateurs et aux administrateurs de s'assurer que tous les humains en bénéficieront et pas quelques sociétés seulement.

Regardant plus loin, M. Ambroggi considère l'idée que les robots seront un jour considérés comme ayant une conscience, et donc comme des formes de vie indépendantes. Il explique : "Il est tout à fait possible que ce soit aussi une réalité, peut-être pas dans les 50 prochaines années, mais la technologie évolue si rapidement que je peux difficilement en douter."

"Lorsque nous étudions la biologie, un 'être vivant' doit avoir au moins une unité 'cellulaire' vivante. Jusqu'à présent, ce n'est pas le cas, mais il est clair que cela pourra l'être à l'avenir. L'intelligence humaine peut être améliorée avec un implant à puce IA, mais alors nous entrons dans de nouveaux domaines et devrons définir ce qui est et ce qui n'est pas un humanoïde hybride ?"

"Nous devrions aussi mentionner la conscience. Nous pouvons affirmer que la conscience même vient de l'expérience, comme on le voit dans le comportement humain qui est extrêmement différencié suivant les différentes parties du monde. Si c'est le cas, l'IA peut le faire et le fera, car l'expérience est reproductible."

- Le surhomme est la dernière étape, et j'ai peur d'utiliser ce mot "dernier". Mais c'est ce qui conduit la recherche pour l'avenir.

"Peu importe qui ou quoi sera au-dessus des capacités humaines. Avant cela, nous ferions mieux de nous assurer d'avoir en place de bonnes réglementations, méthodologies et processus éthiques afin de nous assurer de tirer profit du côté positif de la technologie."

Auteur: McGrath Ciaran

Info: Sun, 3 février 2019

[ prospective ]

 

Commentaires: 0

Ajouté à la BD par miguel

captation technologique

Conformément à l’aphorisme de Ludwig Wittgenstein que je cite abondamment dans cette étude, selon lequel "le monde est l’ensemble des faits et non des choses", la structure du monde ainsi que d’un langage correctement – non pathologiquement – institué, et partant celle du réel se situant à leur interface est d’être relationnelle. Suivant notre perspective moniste, le cerveau humain inscrit dans un semblable écrin reçoit son plein oxygène de cette structure relationnelle dans laquelle il doit impérativement évoluer sous peine de dépérir. Le cadre circonscrivant les écrans est établi au prix de quatre coups de ciseaux qui le délimitent, et le désarriment du réel en constituant un pseudo-réel appauvri de substitution. Pseudo-réel appauvri : on imagine bien la destructivité d’une semblable chose, d’où l’interaction intersubjective a totalement disparu, quand on a compris que seule l’intersubjectivité effective contribue à l’institution et la vascularisation du sujet.

D’où provient donc une telle fascination pour les images, et pis encore, pour les images animées, véritable trou noir qui aspire irrémédiablement le sujet fragile ? Le problème provient des conditions de notre inscription au sein du monde, sous le sceau de notre finitude, dont l’horizon ultime est une certitude lancinante : celle de notre propre mort. Dans ce cadre, notre cerveau est soumis à un stress cognitif permanent lié à la profusion d’informations chaotiques qu’il reçoit du monde, en permanence et sans aucun répit. Pour y faire face, il ne cesse d’analyser, de classer, d’évaluer et de comparer les informations reçues avec celles déjà connues, en cherchant à établir des vecteurs de causalité qui permettraient d’anticiper les différents types de finalités éventuellement présentes en leur sein. Tout ceci est effectué à l’aune d’une grille référentielle simple mais constante : ceci ou cela va-t-il vers l’accroissement de mon être, donc vers la vie, ou vers une atteinte à ma propre vitalité, psychique, physique, affective, etc… donc vers la mort, ou au moins une logique mortifère ? Ce stress cognitif est épuisant et cherche en permanence un répit quel qu’il soit. L’image, et bien plus encore l’image animée, comporte en elle-même des inférences causales préétablies par le peintre, le photographe, le cinéaste, qui l’orientent téléologiquement a priori, sous le surplomb de l’intentionnalité du geste artistique initial. Le spectateur est existentiellement à l’abri du surgissement de tout événement chaotique relevant de la constitution naturelle du sens causal, dont l’établissement dans la vie réelle relève toujours d’une construction a posteriori. Ceci ligote le spectateur dans sa dimension de sujet en le livrant à une irrémédiable passivité dont on peut certes retenir le bénéfice d’un mimétisme cathartique pour un sujet déjà correctement institué, mais dont la destructivité pour un sujet fragile ou incomplètement advenu à lui-même est incalculable. La raison en est double : pour que la catharsis puisse s’établir, en premier lieu, il faut que l’identification à soi-même soit rendue possible par un soi déjà constitué dans sa quasi plénitude ; par ailleurs, la représentation (re-présentation) est toujours arrimée à un référent initial et premier dans l’ordre de l’expérience, en raison d’une simple évidence : le monde nous précède fondamentalement, chronologiquement et ontologiquement. Si la représentation se trouve en situation de précéder le référent initial, les polarités cognitives s’inversent de façon extrêmement destructrice, le monde devenant une représentation de la représentation : doublement éloigné dans l’ordre de l’absence, où les conditions initiales permettant l’émergence du sujet – la triade fondamentale Je-Tu-Il – sont condamnées à une indistinction létale.

Enfin, last but not least, la caractéristique essentielle à retenir de l’art comme élément constituant sans lequel il disparaîtrait en tant que tel, est qu’il repose sur l’éviction de toute forme d’intersubjectivité réelle comme je l’ai signalé plus haut, le spectateur étant consigné à une indépassable passivité réceptive. Les diverses tentatives contemporaines pour briser cet effet de structure se signalent surtout par le fait qu’elles démontrent son intangibilité, sous peine de condamner l’art à l’insignifiance d’une gesticulation dépourvue de propos, du fait de l’effraction du réel en son sein.

J’en conclus qu’il est impératif de supprimer toute forme d’écran, quelle qu’en soit la nature, dans l’entourage des personnes atteintes de troubles autistiques sévères. J’ai pu vérifier, durant mon travail avec Raphaël, à quel point leur influence était délétère sur les progrès de son développement subjectal, en régression nette par rapport aux séances précédentes si par malheur il avait visionné quelque film : il était à nouveau sujet à des écholalies et des comportements erratiques à nouveau difficilement maîtrisables, nécessitant un effort supplémentaire conséquent de notre part à lui et à moi pour récupérer le terrain ainsi perdu.

Auteur: Farago Pierre

Info: Une proposition pour l'autisme, pages 44-46

[ parodie désubjectivante ] [ dangers ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

homme-machine

Quand l'ordinateur façonne sa propre compréhension du monde
Des ordinateurs capables de regrouper, à partir d'une seule photo de vous, toutes les informations que contient votre empreinte numérique... Des machines aptes à auto générer des résumés à partir de textes complexes, ou encore en mesure de détecter un problème de santé à partir de l'imagerie médicale sans l'aide d'un médecin...
Le mariage des deux sciences que sont l'intelligence artificielle et le traitement des métadonnées est consommé. Et, si leur progéniture technologique est déjà parmi nous sous différentes formes, on prévoit que leurs futurs rejetons révolutionneront encore bien davantage notre quotidien.
C'est ce que prédit notamment Yoshua Bengio, professeur au Département d'informatique et de recherche opérationnelle (DIRO) de l'Université de Montréal et directeur de l'Institut des algorithmes d'apprentissage de Montréal. Cet organisme compte près de 70 chercheurs, ce qui en fait le plus grand groupe de recherche en apprentissage profond (deep learning) du monde dont les activités sont concentrées en un seul endroit.
Les conséquences des avancées scientifiques actuelles et à venir sont encore difficiles à imaginer, mais l'explosion du volume de données numériques à traiter pose tout un défi : selon une estimation d'IBM, les échanges de données sur Internet devraient dépasser le zettaoctet, soit un milliard de fois la capacité annuelle d'un disque domestique...
Comment l'intelligence artificielle - IA pour les intimes - permettra-t-elle de traiter ces informations et de les utiliser à bon escient ?
Avant de répondre à la question, clarifions d'abord ce qu'on entend par "intelligence". Le célèbre psychologue suisse Jean Piaget en avait résumé une définition très imagée : "L'intelligence n'est pas ce qu'on sait, mais ce qu'on fait quand on ne sait pas." Plusieurs décennies plus tard, Yoshua Bengio applique cette définition à l'intelligence artificielle.
Apprentissage profond
Inspiré par les théories connexionnistes, Yoshua Bengio ainsi que les chercheurs Geoffrey Hinton et Yann LeCun ont donné naissance, il y a 10 ans, aux algorithmes d'apprentissage profond. Il s'agit de réseaux de neurones artificiels dont le nombre de couches plus élevé permet de représenter des concepts plus abstraits et donc d'apprendre mieux. Chaque couche se construit sur la précédente et combine les concepts plus simples captés à la couche précédente.
Par exemple, au cours des dernières années, différents chercheurs ont tenté d'améliorer la capacité de l'ordinateur à traiter le langage naturel, selon le concept de représentation distribuée : on associe chaque mot à une représentation, puis on utilise les neurones pour obtenir la probabilité du prochain mot.
"On crée de la sorte des relations sémantiques, explique M. Bengio. Si l'on dit "chien" dans une phrase, il est fort possible que cette phrase demeure correcte même si l'on remplace "chien" par "chat", puisque ces mots partagent de nombreux attributs sémantiques : l'ordinateur découvre des attributs communs et, par une forme de déduction, il devient capable d'opérer des transformations successives qui permettent par exemple à l'ordinateur de traduire d'une langue vers une autre."
De sorte que, là où il fallait auparavant plusieurs êtres humains pour montrer à l'ordinateur comment acquérir des connaissances, celui-ci est de plus en plus apte à façonner lui-même sa propre compréhension du monde. C'est là le propre de l'apprentissage profond.
Quelques applications actuelles
Combinée avec les avancées en recherche opérationnelle et les métadonnées, l'intelligence artificielle est déjà présente dans notre vie sous diverses formes. Il n'y a qu'à penser à la façon dont on peut désormais interagir verbalement avec son téléphone portable pour lui faire accomplir une tâche, comme lui demander d'avertir notre conjoint qu'on sera en retard, lui faire ajouter un rendez-vous à notre agenda ou, encore, lui demander de nous suggérer un restaurant italien à proximité de l'endroit où l'on se trouve... Il peut même vous indiquer qu'il est temps de partir pour l'aéroport en raison de la circulation automobile difficile du moment pour peu que vous lui ayez indiqué l'heure de votre vol !
"Ce n'est pas encore une conversation soutenue avec l'ordinateur, mais c'est un début et les recherches se poursuivent", indique de son côté Guy Lapalme, professeur et chercheur au laboratoire de Recherche appliquée en linguistique informatique de l'UdeM, spécialisé entre autres en génération interactive du langage et en outils d'aide à la traduction.
Et maintenant la recherche porte sur la combinaison langage et image. "Après un entraînement au cours duquel l'ordinateur a appris en visionnant plus de 80 000 photos associées chacune à cinq phrases descriptives, il est à présent en mesure de mettre lui-même par écrit ce que l'image évoque; il y a deux ans à peine, je n'aurais pas cru qu'il était possible d'en arriver là", mentionne M. Bengio, qui collabore régulièrement avec le Massachusetts Institute of Technology, Facebook ou Google.
"Nous avons fait de grands progrès récemment, mais nous sommes loin, très loin, de reproduire l'intelligence humaine, rassure l'éminent chercheur. Je dirais que nous avons peut-être atteint le degré d'intelligence d'une grenouille ou d'un insecte, et encore, avec plusieurs imperfections..."

Auteur: Internet

Info: 9 oct. 2015

[ Internet ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

socio-psychologie

Sémio-capitalisme : le big data à la place du contact humain

Il est nécessaire de commencer à penser la relation entre le changement technologique en cours et les processus sociaux. Une subjectivité assujettie, reprise par les médias concentrés et par une configuration de câbles, d’intelligence artificielle, binarismes et algorithmes, obéit inconsciemment aux images et à une technologie digitale qui va par les réseaux, whatsapp, facebook, etc., en conditionnant les habitudes, perceptions, savoirs, choix et sensibilités. La subjectivité se communique de plus en plus par des machines et des suites d’algorithmes mathématiques et de moins en moins par la rencontre des corps. Ce changement techno-culturel inhibe, entre autres choses, la capacité à détecter la souffrance ou le plaisir de l’autre et l’affectation mutuelle des corps, une condition fondamentale de l’amour et de la politique.

Jean Baudrillard, dans "Simulacres et simulation", rappelle un conte de Borges sur une carte si détaillée, qu’il impliquait une exacte correspondance biunivoque avec le territoire. Se basant sur cette histoire, il souligne que dans la postmodernité la différence entre carte et territoire a été gommée, rendant impossible de les distinguer ; plutôt le territoire a cessé d’exister et est seulement restée la carte ou le modèle virtuel, les simulacres qui supplantent la réalité. Baudrillard affirme qu’avec la virtualité nous entrons dans l’ère de la liquidation du réel, de la référence et l’extermination de l’autre.

Bifo Berardi, en continuant sur les traces de Baudrillard, décrit dans "Phénoménologie de la fin" le néolibéralisme comme sémio-capitalisme, un mode de production dans lequel l’accumulation du capital est essentiellement faite au moyen de l’accumulation de signes : de biens immatériels. Il s’agit d’une sémiologie de la simulation basée sur la fin de la référence ; le signe linguistique s’est pleinement émancipé et cette abstraction s’est déplacée vers la science, la politique, l’art, les communications et tout le système d’échanges.

Le néolibéralisme, le capitalisme qui n’est déjà plus industriel mais financier, constitue le point le plus avancé de la virtualisation financière : l’argent peut être transformé en plus d’argent en sautant par-dessus la production de biens utiles. Le sémio-capitalisme se base sur le dé-territorialité de la production, l’échange virtuel et l’exploitation de l’âme comme force productive. À partir de cette organisation, les multinationales ont gagné une liberté absolue de pouvoir bouger facilement leurs actifs non matériels d’un endroit à l’autre, dans un monde dans lequel les automatismes financiers ont remplacé la décision politique et les États ont perdu en caractère effectif, en multipliant la misère, la précarité et le chômage. L’absolutisme capitaliste non régulé affirme son droit d’exercer un contrôle sans restriction sur nos vies, tandis qu’une épidémie d’angoisse se propage à travers la planète.

Dans une culture mondiale transformée en totalitarisme de la virtualité la postvérité joue son match : tout peut être dit et transformé en vérité irréfutable. Les messages ne valent pas par leur interprétation ou relation avec la vérité, mais par le pragmatisme ou le caractère effectif de signes vides qui touchent en plein la dimension affective. Nous constatons une subjectivité affaiblie dans le recours à la pensée, en vivant dans le temps anxieux du zapping et de l’urgence, qui se gère fondamentalement par des impulsions.

La sémiotisation néolibérale, avec la prédominance de l’échange de signes virtuels au nom du progrès, implique la soustraction du corps, ce qui constitue l’une des conséquences les plus inquiétantes que l’humanité peut connaître. Si on ne perçoit pas le corps, le cri, l’angoisse ou la souffrance de l’autre, il y a seulement un pas vers l’indifférence sociale, l’individualisme maximal et la destruction de la communauté réelle. Un corps social de chair et d’os affecté dans l’échange social est la condition fondamentale de la politisation, la construction du peuple et de l’émancipation.

Que faire ?

À la fin de son oeuvre, Berardi explique de manière énigmatique que seul Malinche peut répondre à ces questions. La Malinche, l’une des vingt femmes esclaves données aux Espagnols en 1519 par les habitants de Tabasco, a servi d’ interprète à Hernán Cortés, elle est devenue sa concubine et a mise au monde l’un des premiers métis. Cet acte a été interprété de diverses manières : une traîtresse, une victime ou une mère symbolique de la nouvelle culture métisse. Sans écarter aucune des trois lectures, bien ou mal, Malinche s’est ouvert à la langue de l’autre incompréhensible.

En assumant les transformations sémiotiques, impossibles à freiner, il s’agit de parier sur la possibilité d’affronter cette forme contemporaine de domination. En reprenant le mythe du métissage, il faudra inclure et mélanger les corps à côté des nouvelles technologies. Au lieu de la disjonction que le système néolibéral d’échanges pose entre corps et virtualité, il sera nécessaire de multiplier les espaces de production culturelle et de participation dans lesquels peuvent circuler pensées, affects et corps : des centres culturels, communication alternative, radios libres, blogs, canaux Youtube, etc. Il faudra réorganiser l’espace commun en essayant des formes de vie indépendantes de la domination du capital.

Dans l’ère du sémio-capitalisme néolibéral, la reconstruction des noeuds sociaux devient une forme de résistance et une tache majeure. Peut-être ceci constitue-t-il le défi politique le plus difficile.

Auteur: Merlin Nora

Info: Cronicon. Buenos Aires, 3 février, 2019. Traduit de l’espagnol pour El Correo dela Diaspora par Estelle et Carlos Debiasi

[ pouvoir sémantique ] [ déshumanisation ] [ libéralisme mémétique ]

 

Commentaires: 0

Ajouté à la BD par miguel

progrès

Pourquoi la victoire d’une Intelligence artificielle au poker est plus inquiétante qu’il n’y paraît
Une intelligence artificielle (IA) du nom de Libratus a fait mordre la poussière à 4 des meilleurs joueurs de Poker au monde, à l’issu d’un tournoi de poker de longue haleine, au Rivers Casino, à Pittsburgh, aux États-Unis. Dong Kim, Jason Les, Jimmy Chou et Daniel McAuley ont joué plusieurs jours à raison de 11h par jour, sans monnaie réelle – mais avec un enjeu financier selon leur capacité individuelle à se défaire de l’IA.
Jusqu’ici, il était relativement simple pour un algorithme de prévoir l’issue d’une partie d’échecs ou de Go, car tous les mouvements sont prévisibles à partir de la configuration du plateau de jeu. Mais au poker, il est impossible de connaître la main de ses adversaires ni leur état d’esprit, qui influe grandement leur prise de décision.
Le tournoi qui a opposé 4 joueurs de Poker professionels à l’IA Libratus. (Carnegie Mellon University)
Cette victoire constitue une première mondiale significative ; jusqu’ici, étant donné la grande complexité du poker et des facteurs humains impliqués, les machines qui s’étaient frottées au jeu avaient perdu. Sur les sites de paris en ligne, la victoire des 4 joueurs l’emportait à 4 contre 1.
Une victoire qui étonne même le créateur de l’algorithme
L’algorithme à la base de Libratus repose sur un “deep learning”. Libratus est une version améliorée d’un algorithme antérieur, déjà testé dans des circonstances similaires en 2015 – les joueurs de Poker l’avaient alors emporté.
La victoire confirme la puissance grandissante des algorithmes sur une période très courte. En octobre 2015, le programme alphaGo se débarrassait par 5 parties à 0 du champion européen Fan Hui. En mars 2016, le même programme battait le champion du monde Lee Sedol 4 parties à 1.
Le plus étonnant, selon Noam Brown, le créateur de Libratus, est que contrairement aux intelligences artificielles programmées pour gagner aux échecs, Libratus n’a jamais appris “comment” jouer au Poker. “Nous lui avons donné les règles de base”, et nous lui avons dit “apprends par toi-même”. Durant les pauses du tournoi, alors que les humains dînaient, dormaient ou analysaient les différentes mains de la partie, Brown connectait l’ordinateur au superordinateur de Pittsburg et affinait sa stratégie en rejouant des milliards de possibilités.
“Quand vous jouez contre un humain, vous perdez, vous arrêtez, vous faites une pause. Ici, nous devions donner le meilleur de nous-même 11 heures par jour. La différence est réelle, et émotionnellement, cela est dur à supporter si vous n’êtes pas habitués à perdre”, raconte Les, qui avait joué contre Claudico, une version antérieure de l’algorithme ayant servi de base à Libratus.
Libratus a joué de façon agressive, et n’a pas hésité à faire grimper les paris pour des gains minimes. “Ce n’est pas quelque chose que ferait un humain, en temps normal. Mais cela vous force à devoir donner le meilleur de vous à chaque tour”, évalue Les, qui après la performance de Libratus, a avoué que plus rien ne pourrait l’étonner désormais.
Des raisons de s’inquiéter
“Quand j’ai vu l’IA se lancer dans le bluff en face d’humains, je me suis dit “mais, je ne lui ai jamais appris à faire cela !” C’est une satisfaction pour moi de me dire que j’ai réussi à créer quelque chose capable de cela”, a commenté Noam Brown.
Si le professeur a exprimé un sentiment de “fierté paternelle”, d’autres scientifiques se sont inquiétés des conséquences de l’évolution de l’algorithme ayant donné naissance à Libratus.
Avec cette capacité à traiter l’"imperfection" comme une donnée d’équation, les intelligences artificielles ne jouent plus dans la même cour. On peut sans crainte avancer qu’il sera possible, à l’avenir, d’avoir des robots capables de rivaliser avec les humains sur des enjeux impliquant la décision humaine. Ils pourraient prendre de meilleures décisions dans les transactions financières, ou dresser de meilleures stratégies militaires.
“En fait, le poker est le moindre de nos soucis. Nous avons à présent une machine capable de vous botter les fesses en affaires ou sur le plan militaire", s’inquiète Roman V. Yampolskiy, professeur de sciences informatique de l’université de Louisville.
Au sujet du Deep learning
Le Deep learning dont il est question est une révolution en cela que les intelligence artificielles, qui s’en tenaient à analyser et comparer des données, peuvent maintenant les "comprendre" et apprendre d’elle même ; ce qui la porte à un niveau d’abstraction supérieur. "Par exemple, une IA à qui on donne des photos représentant des museaux, du pelage, des moustaches et des coussinets sous les pattes, est capable d’élaborer le concept de chat. Elle utilise une logique exploratoire qui crée des concepts, elle n’est pas uniquement constituée d’algorithmes préprogrammés", explique Stéphane Mallard, chargé de stratégie et d’innovation dans les salles de marché de la Société Générale.
En 2011, une expérience a été menée dans un jeu télévisé américain, Jeopardy, dans lequel les candidats doivent trouver la question à partir d’une réponse. Une IA développée par IBM, nommée Watson, a gagné haut la main. Or aujourd’hui, d’après Stéphane Mallard, cette IA serait 2 500 fois plus puissante.
Il semble impossible, même pour une IA, de prévoir aujourd’hui jusqu’où ira le développement de ces machines. Mais comme dans les fables tournant autour de l’apprenti-sorcier, il se pourrait que l’erreur ne soit comprise que trop tard.
D’après le producteur, auteur et conférencier Cyrille de Lasteyrie, la rapidité du développement de l’IA, le fait d’ignorer les conséquences du développement de l’IA est dangereux. "En 2005, les entreprises ne prenaient pas Internet au sérieux, et considéraient le phénomène comme un sujet secondaire. Dix ans après, ces mêmes boîtes nous appellent en panique pour mener une transformation digitale profonde et de toute urgence… Je suis convaincu que c’est la même problématique avec l’intelligence artificielle, multipliée par dix. Les conséquences business, organisationnelles, technologiques, humaines ou sociologiques sont énormes", indique t-il dans une interview accordée à Challenges en septembre dernier.

Auteur: Internet

Info: Daniel Trévise, Epoch Times,5 février 2017

[ évolution ]

 
Mis dans la chaine

Commentaires: 0

polypeptides

Les biologistes dévoilent les formes moléculaires de la vie

On vous décrit la quête visant à comprendre comment les protéines se plient rapidement et élégamment pour prendre des formes qui leur permettent d'effectuer des tâches uniques.

Pour le hula hoop, vous vous levez et faites pivoter vos hanches vers la droite et vers la gauche. Pour faire du vélo, on s'accroupit, on tend les bras et on pédale sur les jambes. Pour plonger dans une piscine, vous étendez les bras, rentrez le menton et vous penchez en avant. Ces formes corporelles nous permettent d’entreprendre certaines actions – ou, comme pourrait le dire un biologiste, notre structure détermine notre fonction.

Cela est également vrai au niveau moléculaire. Chaque tâche imaginable effectuée par une cellule possède une protéine conçue pour l'exécuter. Selon certaines estimations, il existe 20 000 types différents de protéines dans le corps humain : certaines protéines des cellules sanguines sont parfaitement conçues pour capter les molécules d'oxygène et de fer, certaines protéines des cellules cutanées fournissent un soutien structurel, etc. Chacun a une forme adaptée à son métier. 

Cependant, si une protéine se replie mal, elle ne peut plus fonctionner, ce qui peut entraîner un dysfonctionnement et une maladie. En comprenant comment les protéines se replient, les biologistes gagneraient non seulement une compréhension plus approfondie des protéines elles-mêmes, mais pourraient également débloquer de nouvelles façons de cibler les protéines liées à la maladie avec de nouveaux médicaments.

Cela s’est avéré être un formidable défi scientifique. Chaque protéine commence par une chaîne de molécules plus petites liées appelées acides aminés. Lorsque les acides aminés s'alignent dans l'ordre dicté par un gène, ils se plient et prennent la forme appropriée de la protéine en quelques microsecondes – un phénomène qui a stupéfié les scientifiques du XXe siècle lorsqu'ils l'ont découvert. 

Dans les années 1950, le biochimiste Christian Anfinsen a émis l’hypothèse qu’il devait y avoir un code interne intégré à la chaîne d’acides aminés qui détermine la manière dont une protéine doit se replier. Si tel était le cas, pensait-il, il devrait exister un moyen de prédire la structure finale d'une protéine à partir de sa séquence d'acides aminés. Faire cette prédiction est devenu connu sous le nom de problème de repliement des protéines. Depuis, certains scientifiques ont redéfini le problème en trois questions liées : Qu'est-ce que le code de pliage ? Quel est le mécanisme de pliage ? Pouvez-vous prédire la structure d’une protéine simplement en regardant sa séquence d’acides aminés ? 

Les biologistes ont passé des décennies à tenter de répondre à ces questions. Ils ont expérimenté des protéines individuelles pour comprendre leurs structures et construit des programmes informatiques pour déduire des modèles de repliement des protéines. Ils ont étudié la physique et la chimie des molécules d’acides aminés jusqu’au niveau atomique pour découvrir les règles du repliement des protéines. Malgré cela, les biologistes n'ont fait que des progrès hésitants dans la compréhension des règles de repliement internes d'une protéine depuis qu'Anfinsen a exposé le problème.

Il y a quelques années, ils ont réalisé une avancée décisive lorsque de nouveaux outils d’intelligence artificielle ont permis de résoudre une partie du problème. Les outils, notamment AlphaFold de Google DeepMind, ne peuvent pas expliquer comment une protéine se replie à partir d'une chaîne d'acides aminés. Mais étant donné une séquence d’acides aminés, ils peuvent souvent prédire la forme finale dans laquelle elle se replie. 

Ce n’est que dans les décennies à venir qu’il deviendra clair si cette distinction – savoir comment une protéine se replie par rapport à ce en quoi elle se replie – fera une différence dans des applications telles que le développement de médicaments. Le magicien doit-il révéler le tour de magie ?

Quoi de neuf et remarquable

Début mai, Google DeepMind a annoncé la dernière itération de son algorithme de prédiction des protéines, appelé AlphaFold3, qui prédit les structures non seulement de protéines individuelles, mais également de protéines liées les unes aux autres et d'autres biomolécules comme l'ADN et l'ARN. Comme je l’ai signalé pour Quanta, cette annonce est intervenue quelques mois seulement après qu’un algorithme concurrent de prédiction des protéines – RosettaFold All-Atom, développé par le biochimiste David Baker de la faculté de médecine de l’Université de Washington et son équipe – a annoncé une mise à niveau similaire. " Vous découvrez désormais toutes les interactions complexes qui comptent en biologie ", m'a dit Brenda Rubenstein, professeure agrégée de chimie et de physique à l'Université Brown. Il reste néanmoins un long chemin à parcourir avant que ces algorithmes puissent déterminer les structures dynamiques des protéines lors de leur déplacement dans les cellules. 

Parfois, les protéines agissent de manière imprévisible, ce qui ajoute une autre difficulté au problème du repliement. La plupart des protéines se replient en une seule forme stable. Mais comme Quanta l’a rapporté en 2021, certaines protéines peuvent se replier sous plusieurs formes pour remplir plusieurs fonctions. Ces protéines à commutation de plis ne sont pas bien étudiées et personne ne sait quelle est leur abondance. Mais grâce aux progrès technologiques tels que la cryomicroscopie électronique et la résonance magnétique nucléaire à l’état solide, les chercheurs y voient plus clairement. De plus, certaines protéines possèdent des régions qui ne se plient pas selon une forme discrète mais qui bougent de manière dynamique. Comme Quanta l'a rapporté en février, ces protéines intrinsèquement désordonnées peuvent avoir des fonctions importantes, comme l'amélioration de l'activité des enzymes, la classe de protéines qui provoquent des réactions chimiques. 

Lorsque les protéines se replient mal, elles peuvent se regrouper et causer des ravages dans l’organisme. Les agrégats de protéines sont caractéristiques des maladies neurodégénératives comme la maladie d'Alzheimer, dans lesquelles des agrégats de protéines potentiellement toxiques appelés plaques amyloïdes s'accumulent entre les neurones et compromettent la signalisation du cerveau. Comme Quanta l’a rapporté en 2022 , l’agrégation des protéines pourrait être répandue dans les cellules vieillissantes ; comprendre pourquoi les protéines se replient mal et s’accumulent pourrait aider au développement de traitements pour les problèmes liés au vieillissement. Parfois, des protéines mal repliées peuvent également favoriser le mauvais repliement et l’agrégation d’autres protéines, déclenchant une cascade d’effets néfastes qui illustrent à quel point il est essentiel qu’une protéine se plie pour prendre sa forme appropriée.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ mai 2024, Mme Yasemin Saplakoglu

[ tridimensionnelles ] [ conformation protéique ]

 

Commentaires: 0

Ajouté à la BD par miguel

amélioration

Le progrès est devenu le moyen de l'aliénation
Cela fait des décennies, sinon un siècle ou deux, que des gens cherchent le mot, l'ont "sur le bout de la langue", qu'il leur échappe, leur laissant une vive et chagrine frustration - sans le mot, comment dire la chose ?
Comment donner et nommer la raison du désarroi, de la révolte, du deuil et pour finir du découragement et d'une indifférence sans fond. Comme si l'on avait été amputé d'une partie du cerveau : amnésie, zone blanche dans la matière grise.
La politique, en tout cas la politique démocratique, commence avec les mots et l'usage des mots ; elle consiste pour une part prépondérante à nommer les choses et donc à les nommer du mot juste, avec une exactitude flaubertienne. Nommer une chose, c'est former une idée. Les idées ont des conséquences qui s'ensuivent inévitablement.
La plus grande part du travail d'élaboration de la novlangue, dans 1984, consiste non pas à créer, mais à supprimer des mots, et donc des idées - de mauvaises idées, des idées nocives du point du vue du Parti -, et donc toute velléité d'action en conséquence de ces mots formulant de mauvaises idées.
Nous sommes tombés sur "regrès", il y a fort peu de temps, un bon et vieux mot de français, tombé en désuétude comme on dit, bon pour le dictionnaire des obsolètes qui est le cimetière des mots. Et des idées. Et de leurs conséquences, bonnes ou mauvaises. Un mot "oublié" ?
Difficile de croire que le mot "regrès", antonyme du "progrès" ait disparu par hasard de la langue et des têtes. Le mouvement historique de l'idéologie à un moment quelconque du XIXe siècle a décidé que désormais, il n'y aurait plus que du progrès, et que le mot de regrès n'aurait pas plus d'usage que la plus grande part du vocabulaire du cheval aujourd'hui disparu avec l'animal et ses multiples usages qui entretenaient une telle familiarité entre lui et l'homme d'autrefois.
Ainsi les victimes du Progrès, de sa rançon et de ses dégâts, n'auraient plus de mot pour se plaindre. Ils seraient juste des arriérés et des réactionnaires : le camp du mal et des maudits voués aux poubelles de l'histoire. Si vous trouvez que l'on enfonce des portes ouvertes, vous avez raison. L'étonnant est qu'il faille encore les enfoncer.
Place au Tout-Progrès donc. Le mot lui-même n'avait à l'origine nulle connotation positive. Il désignait simplement une avancée, une progression. Même les plus acharnés progressistes concéderont que l'avancée - le progrès - d'un mal, du chaos climatique, d'une épidémie, d'une famine ou de tout autre phénomène négatif n'est ni un petit pas ni un grand bond en avant pour l'humanité. Surtout lorsqu'elle se juge elle-même, par la voix de ses autorités scientifiques, politiques, religieuses et morales, au bord du gouffre.
Ce qui a rendu le progrès si positif et impératif, c'est son alliance avec le pouvoir, énoncée par Bacon, le philosophe anglais, à l'aube de la pensée scientifique et rationaliste moderne : "Savoir c'est pouvoir". Cette alliance dont la bourgeoisie marchande et industrielle a été l'agente et la bénéficiaire principale a conquis le monde. Le pouvoir va au savoir comme l'argent à l'argent. Le pouvoir va au pouvoir.
Le progrès est l'arme du pouvoir sur les sans pouvoirs
Et c'est la leçon qu'en tire Marx dans La Guerre civile en France. Les sans pouvoirs ne peuvent pas se "réapproprier" un mode de production qui exige à la fois des capitaux gigantesques et une hiérarchie implacable. L'organisation scientifique de la société exige des scientifiques à sa tête : on ne gère pas cette société ni une centrale nucléaire en assemblée générale, avec démocratie directe et rotation des tâches. Ceux qui savent, décident, quel que soit l'habillage de leur pouvoir.
Contrairement à ce que s'imaginait Tocqueville dans une page célèbre, sur le caractère "providentiel" du progrès scientifique et démocratique, entrelacé dans son esprit, le progrès scientifique est d'abord celui du pouvoir sur les sans pouvoirs.
Certes, une technicienne aux commandes d'un drone, peut exterminer un guerrier viriliste, à distance et sans risque. Mais cela ne signifie aucun progrès de l'égalité des conditions. Simplement un progrès de l'inégalité des armements et des classes sociales.
C'est cette avance scientifique qui a éliminé des peuples multiples là-bas, des classes multiples ici et prolongé l'emprise étatique dans tous les recoins du pays, de la société et des (in)dividus par l'emprise numérique.
Chaque progrès de la puissance technologique se paye d'un regrès de la condition humaine et de l'émancipation sociale. C'est désormais un truisme que les machines, les robots et l'automation éliminent l'homme de la production et de la reproduction. Les machines éliminent l'homme des rapports humains (sexuels, sociaux, familiaux) ; elles l'éliminent de lui-même. A quoi bon vivre ? Elles le font tellement mieux que lui.
Non seulement le mot de "Progrès" - connoté à tort positivement - s'est emparé du monopole idéologique de l'ère technologique, mais cette coalition de collabos de la machine, scientifiques transhumanistes, entrepreneurs high tech, penseurs queers et autres avatars de la French theory, s'est elle-même emparé du monopole du mot "Progrès" et des idées associées. Double monopole donc, et double escroquerie sémantique.
Ces progressistes au plan technologique sont des régressistes au plan social et humain. Ce qu'en langage commun on nomme des réactionnaires, des partisans de la pire régression sociale et humaine. Cette réaction politique - mais toujours à l'avant-garde technoscientifique - trouve son expression dans le futurisme italien (Marinetti) (1), dans le communisme russe (Trotsky notamment), dans le fascisme et le nazisme, tous mouvements d'ingénieurs des hommes et des âmes, visant le modelage de l'homme nouveau, de l'Ubermensch, du cyborg, de l'homme bionique, à partir de la pâte humaine, hybridée d'implants et d'interfaces.
Le fascisme, le nazisme et le communisme n'ont succombé que face au surcroît de puissance technoscientifique des USA (nucléaire, informatique, fusées, etc.). Mais l'essence du mouvement, la volonté de puissance technoscientifique, s'est réincarnée et amplifiée à travers de nouvelles enveloppes politiques.
Dès 1945, Norbert Wiener mettait au point la cybernétique, la " machine à gouverner " et " l'usine automatisée ", c'est-à-dire la fourmilière technologique avec ses rouages et ses connexions, ses insectes sociaux-mécaniques, ex-humains. Son disciple, Kevin Warwick, déclare aujourd'hui : " Il y aura des gens implantés, hybridés et ceux-ci domineront le monde. Les autres qui ne le seront pas, ne seront pas plus utiles que nos vaches actuelles gardées au pré. " (2)
Ceux qui ne le croient pas, ne croyaient pas Mein Kampf en 1933. C'est ce techno-totalitarisme, ce " fascisme " de notre temps que nous combattons, nous, luddites et animaux politiques, et nous vous appelons à l'aide.
Brisons la machine.

Auteur: PMO

Info:

[ décadence ]

 

Commentaires: 0

physique fondamentale

Pourquoi les particules qui collisionnent révèlent la réalité 

Une grande partie de ce que les physiciens savent des lois fondamentales de la nature vient de la construction de machines destinées à écraser les particules entre elles.

Les physiciens ont commencé à développer des collisionneurs de particules à la suite de révélations selon lesquelles l’univers ne se résume pas à des atomes. Ernest Rutherford a perçu l'intérieur de l'atome lors de l'une des premières expériences de proto-collisionneur en 1909. Lui et son élève ont placé une matière radioactive derrière un bouclier en plomb percé d'un trou, de sorte qu'un flux de particules alpha (maintenant connues sous le nom de noyaux d'hélium) ) puisse passer à travers le trou. Lorsqu’ils ont projeté ce faisceau de particules sur une fine feuille d’or, ils ont observé qu’une particule sur 20 000 rebondissait directement vers l’arrière. Rutherford l'a comparé à un obus d'artillerie qui se refléterait sur une feuille de papier de soie. Les physiciens avaient découvert que les atomes d'or étaient pour la plupart constitués d'espace vide, mais que les particules alpha se dispersaient occasionnellement hors des noyaux denses et chargés positivement des atomes.

Deux des étudiants de Rutherford, John Cockcroft et Ernest Walton, ont ensuite assemblé et exploité le premier véritable collisionneur de particules en 1932. Ils ont utilisé un champ électrique pour accélérer les protons et les transformer en atomes de lithium avec suffisamment d'énergie pour briser les atomes de lithium en deux, divisant l'atome pour la première fois.

Au cours des décennies suivantes, les physiciens ont construit un défilé de collisionneurs de particules de plus en plus performants. Ils ont augmenté la densité des particules du projectile, ajouté des aimants supraconducteurs pour mieux les diriger et se sont offert plus de pistes en concevant des collisionneurs circulaires. Pour produire des feux d’artifice plus violents, ils ont brisé des faisceaux de particules circulant dans des directions opposées.

De nombreuses innovations technologiques visaient à produire des collisions à plus haute énergie pour générer des variétés de particules plus riches. Toute la matière que vous avez vue ou touchée est composée de seulement trois particules légères et fondamentales : des électrons et deux types de quarks. La nature laisse aussi entrevoir l'existence de plus d'une douzaine de particules élémentaires plus lourdes, mais seulement pour un instant, avant qu'elles ne se transforment en particules légères et stables. Pour savoir quelles particules massives peuvent exister, les physiciens exploitent l'interchangeabilité de la matière et de l'énergie découverte par Albert Einstein, exprimée dans sa célèbre équation E = mc 2. En générant des collisions plus énergétiques, ils virent émerger des particules plus lourdes.

Une autre façon de voir les choses est que les collisions à haute énergie s’enfoncent plus profondément dans le monde subatomique. Toutes les particules quantiques ont des propriétés ondulatoires, telles que les longueurs d'onde. Et leurs longueurs d’onde déterminent ce avec quoi ils peuvent interagir. Les ondes sonores peuvent contourner les murs parce qu'elles mesurent des mètres en longueur, par exemple, tandis que les ondes lumineuses sont arrêtées par tout ce qui est plus grand que leur longueur d'onde de quelques centaines de nanomètres. Les ondes incroyablement minuscules impliquées dans les collisions à haute énergie sont sensibles à des obstacles quantiques tout aussi minuscules. De cette manière, les énergies plus élevées permettent aux physiciens d’explorer les règles de la réalité à des échelles de plus en plus petites.

Suivant l’exemple de Rutherford et de ses étudiants, les chercheurs ont continué leurs explorations à un rythme effréné. L'énergie des collisions de particules a augmenté de 10 fois tous les six à huit ans pendant la majeure partie d'un siècle, ce qui correspond presque au rythme de la loi de Moore pour les puces informatiques. Ces progrès ont culminé avec la construction du Grand collisionneur de hadrons (LHC) en Europe, une piste souterraine circulaire de 27 kilomètres de circonférence qui écrase des protons à des énergies environ 20 millions de fois supérieures à celles utilisées par Cockcroft et Walton pour diviser l'atome. C’est au LHC en 2012 que les physiciens ont découvert le boson de Higgs, une particule lourde qui donne de la masse à d’autres particules fondamentales. Le Higgs était la dernière pièce manquante du modèle standard de la physique des particules, un ensemble d'équations qui rend compte de toutes les particules élémentaires connues et de leurs interactions. 

Quoi de neuf et remarquable

Le LHC, qui a entamé une nouvelle période d'exploitation de six mois en avril, a consolidé le modèle standard avec la découverte du boson de Higgs. Mais ce qui n'a pas été découvert a laissé le domaine en crise. Pendant des décennies, de nombreux théoriciens des particules ont espéré qu'une nouvelle " supersymétrie “ entre les particules de matière et les particules de force serait observée afin de résoudre une énigme appelée " problème de la hiérarchie ", et aider ainsi à relier les forces quantiques et fournir un candidat pour les particules de ” matière noire » qui maintiennent les galaxies ensemble.

Mais le LHC n’a vu aucun signe des particules prédites par la supersymétrie et, en 2016, les partisans de la théorie ont reconnu que notre univers n’est pas supersymétrique comme ils le pensaient simplement. La même année, l'évocation d'une nouvelle particule s'est avérée être un mirage statistique, et les physiciens ont dû se rendre compte que le LHC ne découvrirait probablement aucun nouveau phénomène au-delà des particules du modèle standard - une situation parfois appelée "scénario du cauchemar" .

Sans indices indiquant l’existence de particules plus lourdes qui pourraient être évoquées dans des collisions à plus haute énergie, il est difficile de justifier la construction d’un autre collisionneur de particules encore plus grand, de plusieurs milliards de dollars. Certains insistent sur le fait que cela en vaut la peine, car il reste encore beaucoup à étudier sur le boson de Higgs, qui pourrait contenir des indices sur d'éventuelles entités plus lourdes situées hors de portée du LHC. Mais aucun indice - ni aucune entité - de cette nature n'est garanti.

Une proposition visant à construire un collisionneur de nouvelle génération au Japon est au point mort. L'Europe réfléchit à un successeur du LHC de 100 kilomètres, mais s'il est approuvé et financé, sa construction prendra tellement de temps que les étudiants diplômés d'aujourd'hui seront à la retraite depuis longtemps avant que ce nouveau LHC ne démarre.

Les physiciens des particules américains ont reçu des nouvelles optimistes en décembre dernier lorsqu'un comité gouvernemental a soutenu l'étude des perspectives quant à un collisionneur de muons . Les muons sont des versions plus volumineuses d'électrons qui seraient plus puissantes lors des collisions, tout en étant dépourvues de la sous-structure des protons, de sorte qu'un collisionneur de muons relativement petit pourrait produire des collisions propres et à haute énergie. Un collisionneur de muons de pointe pourrait s’insérer dans la structure d’une installation existante, le Fermi National Accelerator Laboratory dans l’Illinois, et pourrait donc être construit plus rapidement et à moindre coût. Le problème est que les muons se désintègrent en quelques microsecondes et que la technologie nécessaire pour créer et contrôler des faisceaux étroits de ceux-ci n'existe pas encore. Néanmoins, si le projet va de l'avant, les partisans espèrent qu'un tel dispositif pourrait être opérationnel au moment où les élèves de maternelle d'aujourd'hui commencent à obtenir leur doctorat.

En attendant, les physiciens n’ont d’autre choix que de proposer des expériences alternatives et de nouvelles façons de reconstituer les indices que les collisionneurs leur ont déjà fournis.  

 

Auteur: Internet

Info: https://www.quantamagazine.org/, Charlie Wood, 2 juin 2024

[ impasse ] [ historique ] [ vulgarisation ]

 

Commentaires: 0

Ajouté à la BD par miguel