Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 446
Temps de recherche: 0.0581s

Internet

Les effets psychiques du world wide web

Certains chercheurs comparent le "changement cérébral" induit par l'usage des outils informatiques avec le changement climatique. Si les enfants ont gagné des aptitudes en termes de vitesse et d'automatisme, c'est parfois au détriment du raisonnement et de la maîtrise de soi.

De plus en plus de personnes sont rivées à l'écran de leur smartphone ou occupées à photographier tout ce qu'elles croisent... Face à cet usage déferlant de nouveaux outils technologiques, de nombreux chercheurs s'attachent déjà à étudier les modifications éventuellement cérébrales et cognitives susceptibles d'émerger, spécialement chez les plus jeunes. Mieux, ils nous alertent sur ces phénomènes.

C'est le cas notamment, en France, du Pr Olivier Houdé, directeur du laboratoire de psychologie du développement et de l'éducation de l'enfant du CNRS-La Sorbonne, et auteur du livre "Apprendre à résister" (éd. Le Pommier).

S'intéressant à la génération qui a grandi avec les jeux vidéo et les téléphones portables, il affirme que, si ces enfants ont gagné des aptitudes cérébrales en termes de vitesse et d'automatismes, c'est au détriment parfois du raisonnement et de la maîtrise de soi.

Éduquer le cerveau

"Le cerveau reste le même", déclarait-il récemment, "mais ce sont les circuits utilisés qui changent. Face aux écrans, et du coup dans la vie, les natifs du numérique ont une sorte de TGV cérébral, qui va de l'oeil jusqu'au pouce sur l'écran. Ils utilisent surtout une zone du cerveau, le cortex préfrontal, pour améliorer cette rapidité de décision, en lien avec les émotions. Mais cela se fait au détriment d'une autre fonction de cette zone, plus lente, de prise de recul, de synthèse personnelle et de résistance cognitive.

" Aussi le chercheur en appelle-t-il à une éducation qui apprendrait à nos enfants à résister : "Éduquer le cerveau, c'est lui apprendre à résister à sa propre déraison", affirme-t-il. "Un vrai défi pour les sciences cognitives et pour la société d'aujourd'hui."

Le virtuel est donc clairement suspecté de nous atteindre dans le fonctionnement le plus intime de notre être.

Un nouvel "opium du peuple"

Il suffit d'ailleurs d'observer autour de soi les modifications comportementales qu'il entraîne : incapacité de maintenir une conversation ou de rester concentré sur un document ; facilité "brutale" à se déconnecter d'un échange relationnel comme on se débranche d'une machine, etc.

Le philosophe et artiste Hervé Fischer, qui signe l'un des essais les plus intéressants du moment sur "La Pensée magique du Net" (éd. François Bourin), considère lui aussi que si les jeunes sont "les plus vulnérables" à l'aliénation rendue possible par le Net, car ils mesurent leur existence à leur occurrence sur les réseaux sociaux, cela concerne aussi les adultes : "On peut avoir le sentiment qu'on a une vie sociale parce qu'on a des centaines d'amis sur le Net, ou qu'on est très actif et entreprenant parce qu'on échange sans cesse des commentaires et des informations numériques", explique-t-il. "Le retour au réel est alors encore plus difficile. On vit une pseudo-réalisation de soi, virtuelle elle aussi, et la "descente" de ce nouvel "opium du peuple" peut faire très mal à ceux qui ont une existence déjà frustrante sur bien des points." Cette existence qui se mesure et s'expérimente désormais à travers un profil numérique alerte aussi, en Grande-Bretagne, la grande spécialiste de la maladie d'Alzheimer, le Pr Susan Greenfield, qui parle de "changement cérébral" comme on parle de "changement climatique".

Elle s'inquiète des modifications identitaires provoquées par un usage intensif d'internet : "C'est presque comme si un événement n'existe pas tant qu'il n'a pas été posté sur Facebook, Bebo ou YouTube", écrivait-elle récemment dans le Daily Mail. "Ajoutez à cela l'énorme quantité d'informations personnelles désormais consignées sur internet - dates de naissances, de mariages, numéros de téléphone, de comptes bancaires, photos de vacances - et il devient difficile de repérer avec précision les limites de notre individualité. Une seule chose est certaine : ces limites sont en train de s'affaiblir."

Être là

Mais on peut aussi se demander : pourquoi un tel impact ? Pour Hervé Fischer, si internet est aussi "addictif", c'est parce que la société "écranique" réveille nos plus grandes mythologies, dont le rêve de retourner en un seul clic à la matrice collective, et de se perdre alors dans le sentiment océanique d'appartenir à la communauté humaine. "Ce qui compte, c'est d'être là", explique le philosophe. "On poste un tweet et ça y est, on se sent exister." Versants positifs de cette "nouvelle religion" ? "24 heures sur 24, les individus de plus en plus solitaires peuvent, quand ils le veulent, se relier aux autres", observe Hervé Fischer. Et, tout aussi réjouissant, chacun peut gagner en "conscience augmentée", notamment en se promenant de liens en liens pour approfondir ses connaissances.

Désormais, c'est certain, grâce à la Toile, on ne pourra plus dire "qu'on ne savait pas". Le Figaro Smartphone, tablette, etc.

Diminution de la matière grise

Selon les neuroscientifiques Kep Kee Loh et Dr. Ryota Kanai, de l'Université de Sussex, l'usage simultané de téléphones mobiles, ordinateurs et tablettes changerait la structure de nos cerveaux.

Les chercheurs ont constaté une diminution de la densité de la matière grise du cerveau parmi des personnes qui utilisent habituellement et simultanément plusieurs appareils par rapport à des personnes utilisant un seul appareil occasionnellement (publication : "Plos One", septembre 2014).

Interview de Michael Stora, psychologue et psychanalyste, fondateur de l'Observatoire des mondes numériques en sciences humaines (OMNSH) et qui a notamment écrit "Les écrans, ça rend accro..." (Hachette Littératures).

- Selon vous, quel impact majeur ont les nouvelles technologies sur notre psychisme ?

- Je dirais tout ce qui relève du temps. Compressé par l'usage immédiat des smartphones et autres ordinateurs mobiles, celui-ci ne permet plus ni élaboration de la pensée ni digestion des événements. Et l'impatience s'en trouve exacerbée. Ainsi, nous recevons de plus en plus de patients qui demandent à être pris en charge "en urgence". Or, de par notre métier, nous avons appris qu'en réalité - et hors risque suicidaire - il n'y en a pas. Chacun est donc confronté à sa capacité à supporter le manque (quand arrivera la réponse à ce mail, ce texto ?) et se retrouve pris dans la problématique très régressive du nourrisson qui attend le sein.

- En quoi notre capacité de penser s'en trouve-t-elle affectée ?

- Les formats des contenus deviennent si courts, le flux d'informations si incessant que réfléchir devient impossible, car cela demande du temps. Regardez Twitter : son usager ne devient plus qu'un médiateur, il partage rapidement un lien, s'exprime au minimum, on est dans la violence du "sans transition"... Il est évident que l'être humain ne peut traiter tant d'informations, et l'on observe déjà que la dimension analytique s'efface au profit d'une dimension synthétique. Cela semble assez logique : la Toile a été créée par des ingénieurs adeptes d'une pensée binaire, structurée sur le 0 ou le 1 et sans autres ouvertures. Il faudrait vraiment que les sciences humaines soient invitées à participer davantage à ces entreprises, cela permettrait de sortir d'un fonctionnement en boucle où l'on vous repropose sans cesse le même type de produits à consommer par exemple.

- Mais beaucoup parviennent aussi à s'exprimer grâce à Internet ?

- C'est vrai, si l'on regarde Facebook par exemple, le nombre de personnes occupées à remplir leur jauge narcissique est très élevé. Mais il y a de moins en moins de créativité sur la Toile. Auparavant, un certain second degré, qui a pu donner naissance à des sites comme viedemerde.com par exemple, dont la dimension auto-thérapeutique est certaine, dominait. Mais aujourd'hui, la réelle création de soi a disparu. Il s'agit d'être sans arrêt dans la norme, ou dans une version fortement idéalisée de soi. À force de gommer "ce qui fâche", les mauvais côtés de la vie, les efforts ou les frustrations inévitables, on est alors dans un exhibitionnisme de soi très stérile et régressif qui révèle seulement l'immense besoin de chacun d'être valorisé. L'usager souhaite être "liké" (quelqu'un a répondu au message laissé sur Facebook) pour ce qu'il est, pas pour ce qu'il construit, comme le petit enfant à qui l'on répète "qu'il est beau !" sans même qu'il ait produit de dessin.

- Internet rend-il exhibitionniste ?

- Je pense que la Toile ne fait que révéler ce que nous sommes profondément. Regardez comme les internautes qui "commentent" en France sont critiques et râleurs, exactement comme on imagine les Français... Et c'est vrai, j'ai été surpris de constater cet exhibitionnisme fou dans notre pays. Avec les "blacklists", la violence de la désinhibition et des critiques qui laissent peu de possibilité d'échanger, une certaine froideur narcissique l'emporte. Ce que l'on observe, c'est qu'il y a plus d'humains enrôlés dans l'expérience du Web, mais moins d'humanité.

Auteur: Journaldujura.ch

Info: Keystone, 1er mai 2015

[ lecture ] [ historique ] [ évolution ]

 
Mis dans la chaine

Commentaires: 0

recherche fondamentale

Pourquoi nous pouvons cesser de nous inquiéter et aimer les accélérateur de particules

En plongeant dans les mystères de l'Univers, les collisionneurs sont entrés dans l'air du temps et ont exploité  merveilles et  craintes de notre époque.

Le scénario semble être le début d'une mauvaise bande dessinée de Marvel, mais il se trouve qu'il éclaire nos intuitions sur les radiations, la vulnérabilité du corps humain et la nature même de la matière. Grâce aux accélérateurs de particules, les physiciens peuvent étudier les particules subatomiques en les accélérant dans de puissants champs magnétiques, puis en retraçant les interactions qui résultent des collisions. En plongeant dans les mystères de l'Univers, les collisionneurs se sont inscrits dans l'air du temps et ont nourris des émerveillements et des craintes de notre époque.

Dès 2008, le Grand collisionneur de hadrons (LHC), exploité par l'Organisation européenne pour la recherche nucléaire (CERN), a été chargé de créer des trous noirs microscopiques qui permettraient aux physiciens de détecter des dimensions supplémentaires. Pour beaucoup, cela ressemblait à l'intrigue d'un film catastrophe de science-fiction. Il n'est donc pas surprenant que deux personnes aient intenté une action en justice pour empêcher le LHC de fonctionner, de peur qu'il ne produise un trou noir suffisamment puissant pour détruire le monde. Mais les physiciens firent valoir que l'idée était absurde et la plainte fut rejetée.

Puis, en 2012, le LHC détecta le boson de Higgs tant recherché, une particule nécessaire pour expliquer comment les particules acquièrent une masse. Avec cette réalisation majeure, le LHC est entré dans la culture populaire ; il a figuré sur la pochette de l'album Super Collider (2013) du groupe de heavy metal Megadeth, et a été un élément de l'intrigue de la série télévisée américaine The Flash (2014-).

Pourtant, malgré ses réalisations et son prestige, le monde de la physique des particules est si abstrait que peu de gens en comprennent les implications, la signification ou l'utilisation. Contrairement à une sonde de la NASA envoyée sur Mars, les recherches du CERN ne produisent pas d'images étonnantes et tangibles. Au lieu de cela, l'étude de la physique des particules est mieux décrite par des équations au tableau noir et des lignes sinueuses appelées diagrammes de Feynman. Aage Bohr, lauréat du prix Nobel dont le père Niels a inventé le modèle Bohr de l'atome, et son collègue Ole Ulfbeck sont même allés jusqu'à nier l'existence physique des particules subatomiques, qui ne sont rien d'autre que des modèles mathématiques.

Ce qui nous ramène à notre question initiale : que se passe-t-il lorsqu'un faisceau de particules subatomiques se déplaçant à une vitesse proche de celle de la lumière rencontre la chair du corps humain ? Peut-être parce que les domaines de la physique des particules et de la biologie sont conceptuellement très éloignés, ce ne sont pas seulement les profanes qui manquent d'intuition pour répondre à cette question, mais aussi certains physiciens professionnels. Dans une interview réalisée en 2010 sur YouTube avec des membres de la faculté de physique et d'astronomie de l'université de Nottingham, plusieurs experts universitaires ont admis qu'ils n'avaient aucune idée de ce qui se passerait si l'on introduisait une main à l'intérieur du faisceau de protons du LHC. Le professeur Michael Merrifield l'exprima de manière succincte : "C'est une bonne question. Je ne connais pas la réponse. Ce serait probablement néfaste pour la santé". Le professeur Laurence Eaves se montra également prudent avant de tirer des conclusions. "À l'échelle de l'énergie que nous percevons, ce ne serait pas si perceptible que cela, déclara-t-il, sans doute avec un brin d'euphémisme britannique. Est-ce que je mettrais ma main dans le faisceau ? Je n'en suis pas sûr."

De telles expériences de pensée peuvent être des outils utiles pour explorer des situations qui ne peuvent pas être étudiées en laboratoire. Il arrive cependant que des accidents malencontreux donnent lieu à des études de cas : occasions pour les chercheurs d'étudier des scénarios qui ne peuvent pas être induits expérimentalement pour des raisons éthiques. Etude de cas ici avec un échantillon d'une personne et qui ne comporte pas de groupe de contrôle. Mais, comme l'a souligné en son temps le neuroscientifique V S Ramachandran dans Phantoms in the Brain (1998), il suffit d'un seul cochon qui parle pour prouver que les cochons peuvent parler. Le 13 septembre 1848, par exemple, une barre de fer transperça la tête de Phineas Gage, un cheminot américain, et modifia profondément sa personnalité, ce qui constitue une première preuve de l'existence d'une base biologique de la personnalité.

Et puis le 13 juillet 1978, un scientifique soviétique du nom d'Anatoli Bugorski plongea sa tête dans un accélérateur de particules. Ce jour-là, Bugorski vérifiait un équipement défectueux sur le synchrotron U-70 - le plus grand accélérateur de particules d'Union soviétique - lorsqu'un mécanisme de sécurité a lâché et qu'un faisceau de protons se déplaçant à une vitesse proche de celle de la lumière lui a traversé la tête, à la manière de Phineas Gage. Il est possible qu'à ce moment de l'histoire, aucun autre être humain n'ait jamais été confronté à un faisceau de rayonnement concentré à une énergie aussi élevée. Bien que la protonthérapie - un traitement du cancer utilisant des faisceaux de protons pour détruire les tumeurs - ait été mise au point avant l'accident de Bugorski, l'énergie de ces faisceaux ne dépasse généralement pas 250 millions d'électronvolts (une unité d'énergie utilisée pour les petites particules). Bugorski aurait pu subir de plein fouet les effets d'un faisceau d'une énergie plus de 300 fois supérieure, soit 76 milliards d'électrons-volts.

Le rayonnement de protons est en effet très rare. Les protons provenant du vent solaire et des rayons cosmiques sont stoppés par l'atmosphère terrestre, et le rayonnement de protons est si rare dans la désintégration radioactive qu'il n'a été observé qu'en 1970. Les menaces plus familières, telles que les photons ultraviolets et les particules alpha, ne pénètrent pas dans le corps au-delà de la peau, sauf en cas d'ingestion d'une substance radioactive. Le dissident russe Alexandre Litvinenko, par exemple, fut tué par des particules alpha qui ne pénètrent même pas le papier lorsqu'il ingéra à son insu du polonium-210 radioactif livré par un assassin. Mais lorsque les astronautes d'Apollo, protégés par des combinaisons spatiales, furent exposés à des rayons cosmiques contenant des protons et à des formes de rayonnement encore plus exotiques, ils signalèrent des éclairs de lumière visuelle, signe avant-coureur de ce qui allait arriver à Bugorski le jour fatidique de son accident. Selon une interview publiée dans le magazine Wired en 1997, Bugorski a immédiatement vu un flash lumineux intense, mais n'a ressenti aucune douleur. Le jeune scientifique fut transporté dans une clinique de Moscou, la moitié du visage gonflée, et les médecins s'attendaient au pire.

Les particules de rayonnement ionisant, telles que les protons, font des ravages dans l'organisme en brisant les liaisons chimiques de l'ADN. Cette atteinte à la programmation génétique d'une cellule peut tuer la cellule, l'empêcher de se diviser ou induire une mutation cancéreuse. Les cellules qui se divisent rapidement, comme les cellules souches de la moelle osseuse, sont les plus touchées. Les cellules sanguines étant produites dans la moelle osseuse, par exemple, de nombreux cas d'irradiation se traduisent par une infection et une anémie dues à la perte de globules blancs et de globules rouges, respectivement. Mais dans le cas particulier de Bugorski, les radiations étaient concentrées le long d'un faisceau étroit à travers la tête, au lieu d'être largement dispersées lors des retombées nucléaires, comme cela a été le cas pour de nombreuses victimes de la catastrophe de Tchernobyl ou du bombardement d'Hiroshima. Pour Bugorski, les tissus particulièrement vulnérables, tels que la moelle osseuse et le tractus gastro-intestinal, auraient pu être largement épargnés. Mais là où le faisceau a traversé la tête de Bugorski, il a déposé une quantité obscène d'énergie de rayonnement, des centaines de fois supérieure à une dose létale selon certaines estimations.

Et pourtant, Bugorski est toujours en vie aujourd'hui. La moitié de son visage est paralysée, ce qui donne à un hémisphère de sa tête une apparence étrangement jeune. Il serait sourd d'une oreille. Il a souffert d'au moins six crises tonico-cloniques généralisées. Communément appelées crises de grand mal, ce sont les crises les plus fréquemment représentées au cinéma et à la télévision, impliquant des convulsions et une perte de conscience. L'épilepsie de Bugorski est probablement le résultat de la cicatrisation des tissus cérébraux causée par le faisceau de protons. Il souffre également de crises de petit mal ou d'absence, des crises beaucoup moins spectaculaires au cours desquelles la conscience est brièvement interrompue. Aucun cancer n'a été diagnostiqué chez Bugorski, bien qu'il s'agisse souvent d'une conséquence à long terme de l'exposition aux rayonnements.

Bien que son cerveau ait été traversé par rien de moins qu'un faisceau d'accélérateur de particules, l'intellect de Bugorski est resté intact et il a passé son doctorat avec succès après l'accident.  

Auteur: Frohlich Joel

Info: https://bigthink.com/   23 juin  2020

[ . ]

 

Commentaires: 0

Ajouté à la BD par miguel

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

indéterminisme

L'essor des thérapies quantiques
Basée sur les découvertes de la physique quantique, une nouvelle façon de se soigner fait de plus en plus parler d'elle. Son postulat : nos cellules émettent des informations, qui déterminent notre état de santé et sur lesquelles il est possible d'agir. Explications.
"Il y a dix ans, on m'a diagnostiqué un lupus érythémateux, une maladie auto-immune chronique, raconte Lucia, une artiste de 50 ans. Depuis, suivie à l'hôpital, j'en étais arrivée à prendre onze médicaments par jour... Il y a six mois, un ami est venu me voir bouleversé après avoir essayé une nouvelle technique de soin qui, disait-il, n'avait rien à voir ni avec la médecine conventionnelle, ni avec les médecines naturelles. Une "machine" donnait des résultats dont l'exactitude l'avait dérouté. Je suis cartésienne et je n'ai pas peur des expériences nouvelles. J'ai donc consulté un thérapeute qui utilise cet appareil de biofeedback. En quelques minutes, l'écran a affiché clairement tout mon parcours médical ! Puis cette machine a effectué un traitement très étrange, consistant à envoyer des "informations" dans le corps. Après quelques séances, la plupart de mes symptômes ont disparu et, aujourd'hui, avec l'accord de mon médecin, je ne prends plus qu'un médicament par jour."
Un diagnostic global
Un appareil capable d'effectuer un diagnostic précis et de traiter aussi rapidement une maladie auto-immune ? Si un cas ne vaut pas pour tous, les résultats sont étonnants. Et ce n'est qu'un des aspects de cette approche de la santé physique et psychique, qui se répand au point que certains médecins et chercheurs n'hésitent plus à dire qu'un changement de paradigme est en train de s'opérer. Le premier congrès sur les thérapies quantiques d'Aix-en- Provence, en novembre 2010, a réuni des scientifiques du monde entier, parmi lesquels l'équipe du professeur Luc Montagnier, prix Nobel de médecine 2008. Depuis, les livres sur le sujet, les congrès affichant complets, les appareils de biofeedback ou les méthodes quantiques se multiplient...
Les "thérapies quantiques", ou la "médecine quantique", nous demandent de voir la vie, la santé et la maladie d'une tout autre façon : notre corps n'est plus un assemblage d'organes à traiter séparément, comme le fait la médecine conventionnelle, c'est un champ vibratoire et énergétique constitué de milliards de particules de lumière - des photons - qui échangent en permanence des informations, un univers lumineux dans lequel l'esprit et la matière ne font qu'un. Avec une idée clé : ce ne sont pas les échanges biochimiques de nos cellules qui déterminent notre état de santé, mais les informations qu'elles se communiquent entre elles. Ici, l'origine de la maladie n'est donc pas un problème purement biologique, mais un défaut d'information ; le symptôme n'est qu'une réaction à ce dernier.
Pour celui qui ne connaît pas le monde scientifique, l'idée peut sembler délirante. Pourtant, elle repose sur des dizaines d'années de recherches, commencées il y a un siècle avec Albert Einstein et ses travaux sur la nature de la lumière. Au fil des décennies, la physique quantique - qui décrit le comportement des atomes et des particules subatomiques - s'est développée en marge de la physique classique, car elle ne répond pas aux mêmes règles. La plus importante, pour comprendre le fondement de la médecine quantique : les ondes électromagnétiques sont en même temps des photons. Ces photons du corps humain sont loin d'être des vues de l'esprit : au cours des années 1970, Fritz-Albert Popp, un biophysicien allemand, a découvert l'existence de ce qu'il a appelé les " bi photons ", des particules de lumière émises par nos cellules, qu'il a réussi à filmer. Ces minuscules courants lumineux, invisibles à l'oeil nu, portent les informations et contrôlent notre organisme. Mais pas n'importe comment.
Des capacités d'auto guérison stimulées
L'une des découvertes les plus importantes de la physique quantique, reprise et développée dans la thérapie quantique, est, en effet, la théorie des "champs énergétiques" : ce sont eux qui organisent et contrôlent notre corps. Ils forment un tout. En somme, le corps humain est une structure organisée d'informations. Ce que les Chinois ont compris depuis longtemps avec l'acupuncture, qui traite les flux d'énergie du corps ; ou les Indiens, avec leur médecine ayurvédique qui traite le "corps de lumière" et ses chakras...
Les appareils de biofeedback quantiques sont conçus pour détecter les ondes électromagnétiques, les " fréquences " émises par chacune des cellules de notre corps. Lorsque certaines sont brouillées ou " fausses ", l'appareil renvoie des fréquences " justes " afin de corriger le problème. Imaginez que vous ayez un coup de déprime. Vous appelez votre meilleur ami. Ses paroles rassurantes vous remontent le moral et vous retrouvez assez d'énergie pour reprendre le cours normal de votre vie. L'aide reçue n'est pas " physique ", mais vient des mots réconfortants. Or ce flot d'informations vous a été transmis par les fréquences du téléphone. Voilà, de manière imagée, comment fonctionnent les appareils de médecine quantique : ils envoient des ondes extrêmement fines qui " parlent " à nos cellules et leur transmettent des informations, elles-mêmes portées par les photons. Pour reprendre la métaphore, on pourrait dire que les fréquences sont les phrases réconfortantes de votre ami ; et les photons, les mots, avec leur sens.
Si la thérapie quantique fait usage d'appareils électroniques de plus en plus sophistiqués, comme le Scio, le Korotkov, le Mora ou le Life, cette approche de la médecine n'est pour autant pas mécaniste : les machines ne fonctionnent pas seules. " En "dialoguant" avec notre champ d'informations, ces appareils stimulent nos capacités d'auto guérison, explique la journaliste et conférencière Lynn McTaggart, auteure du Lien quantique (Macro 2012). Mais rien ne peut se faire sans la présence d'un médecin ou d'un thérapeute. " Une interaction d'autant plus importante que cette nouvelle vision de la santé, donc de la vie, implique non seulement une relation entre le corps et l'esprit, mais l'union fondamentale de l'esprit et de la matière.
J'ai testé un appareil de biofeedback
Des électrodes, un écran d'ordinateur, des graphiques... Notre journaliste, Odile Chabrillac, a confié son corps au Scio, une machine destinée à diagnostiquer les défaillances de l'organisme et à rééquilibrer ce dernier.
" Sitôt arrivée dans le cabinet du praticien en biofeedback qui utilise le Scio, l'un des appareils de médecine quantique dont on parle le plus en ce moment, me voilà assise confortablement et harnachée d'électrodes aux chevilles, aux poignets et sur le front. Face à moi, un mur blanc sur lequel est projeté un écran d'ordinateur rempli d'informations et de graphiques. Adrian M., le thérapeute, me soumet d'abord à un questionnaire sur mon âge, mes habitudes d'hygiène de vie, les maladies et opérations passées, mon niveau de stress... Puis, pendant trois minutes, je suis priée de rester la plus détendue possible, car cette machine va envoyer des milliers d'infirmes fréquences dans mon organisme - plus de dix mille !-, comme autant de questions auxquelles chacune de mes cellules et chacun de mes organes devront répondre. Je ne sens rien, juste de légers picotements...
Le Scio fait un bilan très complet, physiologique et émotionnel. Il affiche d'abord des chiffres sur l'énergie, la pression sanguine, l'hydratation, l'oxygénation, le pH, la vitalité et les échanges cellulaires, la capacité de régénération de mon organisme... L'ensemble est plutôt bon, voire très bon. Ouf ! En revanche, il relève que je suis légèrement intoxiquée par certains produits, le chlore en particulier, et que mon niveau de stress est bien trop important. Le thérapeute me montre les graphiques et m'explique que le stress peut avoir un impact sur ma thyroïde, mon système endocrinien, et sur certains lobes cérébraux, avec un risque de maladie d'Alzheimer. Car cette machine évalue aussi les problèmes potentiels de chaque individu.
Adrian M. me rassure : les appareils quantiques sont fondés sur les probabilités, non sur des certitudes absolues : " C'est comme la météo, m'explique-t-il, si l'on nous annonce de la pluie, mieux vaut prendre un parapluie, mais cela ne veut pas dire qu'il pleuvra ! " Pendant près d'une heure, la machine va procéder au traitement, en renvoyant des fréquences justes pour corriger celles qui sont faussées. En somme, elle donne au corps les bonnes réponses aux questions qu'elle a posées. Là encore, je ne sens rien. La séance dure une heure et demie. (Compter 60 € la séance - prix donné à titre indicatif).
Bilan : si mon mode de vie est plutôt sain, je suis capable de m'empoisonner l'existence, au sens littéral du terme, avec mes " prises de tête ". Voilà ce qui est étonnant ici : cet appareil tient autant compte des facteurs physiologiques et biologiques que de mes émotions, de mon état d'esprit mental et moral, de certains problèmes psychologiques. La fin de la séance se conclut par quelques conseils supplémentaires : boire davantage, bouger, pratiquer le yoga si je peux, rythmer mon mode de vie en fonction de la saison. Le Scio suggère quelques remèdes homéopathiques pour optimiser mon état corporel, mon mental et mon énergie. Sortie de la séance enthousiaste et détendue, je me suis sentie épuisée tout l'après-midi et me réveillerai le lendemain matin légèrement courbaturée. Rendez-vous a été pris pour vérifier si mes efforts auront déjà eu un véritable impact sur mon corps et mon esprit.

Auteur: Pigani Erik

Info:

[ psychothérapie ]

 
Mis dans la chaine

Commentaires: 0

prospective affirmée

Jouant avec 10 coups d’avance, la Chine est le véritable maître du jeu, la Russie est d’ores et déjà consciente du risque de se faire vassaliser par son puissant voisin.

Ce qui conditionne la géopolitique du présent comme des prochaines années, c’est la lutte froide-chaude entre les USA et la Chine + l’accès à l’énergie, à l’eau et à certaines matières premières. Tous les autres conflits sont à la périphérie de ce duel.

LE PASSE-FUTUR

Le passé cosmique étant en partie l’avenir de la terre, il est relativement confortable d’anticiper certains paramètres.

PARAMÈTRE 1 : Le programme des Gestionnaires de la planète Terre se poursuit suivant leur Plan

Les administrateurs non humains terrestres interviennent sur le ‘’jardin’’ comme ils le font depuis des éons : physiquement, génétiquement, et bio-énergétiquement. Entre autres choses, ils gèrent les avancées scientifiques de l’humanité terrestre, les accélérant et les freinant selon les cas.

PARAMÈTRE 2 : Les développements scientifiques et technologiques sont les véritables révolutions.

Ils impactent directement la politique, la sociologie, l’économie et la guerre.

Les principales innovations viendront des biotechnologies et des technologies d’assemblage à l’échelle atomique. Ces dernières vont redécouvrir des matériaux ‘’exotiques’’ : hyper-résistance, inaltérabilité, autoassemblage, supra-conductivité électrique, production endogène d’énergie. A base de carbone, de silicium puis par assemblage avec d’autres éléments. Un immense champ de recherches s’ouvrira…

De nouveaux paradigmes scientifiques vont en émerger, avec des développements sur des palettes de plus en plus diversifiées. Ils vont à terme changer la donne sur la production et le stockage d’énergie, le transport terrestre et spatial, et l’armement. La géopolitique en sera bouleversée, avec la fin de certaines raretés et le développement de l’autonomie énergétique à toutes les échelles.

En sus, la mise en évidence de l’état ‘’epsilon’’ de la matière va ouvrir une nouvelle direction scientifique dont on n’a pas idée en 2022. Entre autres choses, à terme, il deviendra très aisé de contrôler l’esprit humain ordinaire, sans utiliser les médias (presse, télévision, internet) inféodés et contrôlés par les leaders Industriels et politiques humains à l’époque où ces lignes sont écrites.

PARAMÈTRE 3 : La démographie du présent (2022) anticipe de manière très sûre le 21ème siècle.

La stabilisation de la population humaine, sa maîtrise, voire sa réduction s’avère une donnée incontournable bien que largement tabou pour le commun au début du siècle. Elle peut s’opérer contrainte, par crises, ou bien gérée paisiblement dans la durée.

Ici, ce sera probablement par crises, espérons qu’elles seront les moins radicales possibles.

PARAMÈTRE 4 : Résistance et atout ‘’caché’’ des USA face à la Chine

Il serait extrêmement étonnant que les services de renseignements russes et chinois ne soient pas informés de l’AVANCE TECHNOLOGIQUE considérable qu’ont pris les USA sur le reste de la planète, par la rétroconception de technologies exotiques, assistés par certains exogènes eux-mêmes.

Cependant, cette avance a créé une sorte d’élite planétaire qui s’est rapidement et largement affranchie du système ‘’démocratique’’ et de l’état américain lui-même. Ses membres sont actuellement issus de toutes origines terrestres, l’hyper compétence dans un domaine de pointe étant le principal critère d’entrée : mathématiques, physique, etc.

La stratégie politique de cette élite est la discrétion maximum, ce qui implique la non-intervention sur le sol de la planète.

A titre d’exemple, si l’on parle vélocité, les missiles hypersoniques de la Russie vont possiblement à mach 20 (environ 7 km seconde - 400 km minute) ou plus, très certainement en utilisant des technologies MHD comme l’explique JP PETIT. Ils accélèrent grosso modo de manière conventionnelle par échange de quantité de mouvement, en s’appuyant sur le milieu ambiant ou / et avec des fusées. Leur limite est celle de la résistance des matériaux aux forces d’accélération.

Les ARV (Alien Reproduction Véhicules) des black programs s’appuient sur des technologies très différentes, beaucoup plus avancées. Ils peuvent circuler dans l’espace, une zone où la matière est très peu dense et où la MHD ne fonctionnerait pas ou très peu, les accélérations seraient très faibles bien que continues.

Les ARV ont franchi le mur de la lumière depuis la fin des années 1970, ils passent de 0 à 20 000 km / heure quasi instantanément et peuvent prendre des virages à angle droit, ils ne sont plus soumis aux lois réputées universelles de la masse et de l’inertie. On ne peut pas les voir car ils vont trop vite. En outre, un second facteur les rend furtifs : ils changent de dimension. Ils peuvent facilement prendre des passagers, ce qui semble plus compliqué avec les technologies russes de missiles hypervéloces.

Ces ARV sont souvent observés comme des OVNIS de forme triangulaire.

Que l’on parle des technologies MHD ou bien des technologies de rétroconception Z .R, il s’agit de produire des champs magnétiques de très haute intensité, mais dans le second cas ils sont beaucoup plus puissants et complexes.

Il est spéculatif de penser que l’élite interviendra dans les conflits traditionnels terrestres, fussent-ils nucléaires. La grande avance technologique ‘’cachée’’ des black programs pourrait modifier la donne dans la compétition Chine – USA, au moins sur le court terme. Idem sur une organisation secrète chinoise, extrêmement puissante financièrement. J’ai eu plusieurs contacts avec certains de leurs membres, ils sont parfaitement conscients de la présence des Gestionnaires non terrestres et de la structure poly dimensionnelle de la Création.

Les Administrateurs non terrestres de la planète font la démonstration constante de leur interventionnisme au niveau du nucléaire civil et militaire, ceci depuis plus de 60 ans. Il nous faut espérer qu’ils gardent la même politique en cas de conflit nucléaire généralisé imminent.

LE FUTUR

J’avais prévenu, je vais faire le contraire de ce que je recommande comme étant raisonnable.

Une seule raison à cela pour le moment, le souvenir d’une vie future en chine, dans 250 ans. Cette réminiscence a commencé spontanément en 2019, lors d’une balade en voiture dans ce que je nomme maintenant ‘’la vallée du souvenir’’. En effet c’est quelque part ici qu’il y a la grotte du souvenir, un lieu secret où certains reviennent chercher la pierre qu’ils y ont déposée lors d’une incarnation passée.

Les Voyages dans le futur et dans le passé m’ont tout de suite étonné. Je dois dire qu’à chaque nouvelle exploration de ce type, je comprends encore moins ce qu’est le temps, à part qu’il est subjectif et dépend à la fois de l’état de conscience et de la position vibratoire où l’on se trouve.

Cette émergence mémorielle a débuté exactement comme celles relatives aux vies passées sur terre. Puis elle apporte son flot de détails de manière continue, comme pour les autres incarnations. Je vais le redire mais oui, moi aussi je n’y comprends rien. Les bidules spiritualeux du genre : ‘’toutes les incarnations se passent en même temps’’ ne me conviennent pas du tout.

Et NON, mon incarnation du 23ème siècle n’est pas un futur possible. Cette théorie me semble plus un jeu de l’esprit qu’autre chose, une simple discussion de salon, mais vous connaissez mon côté tranchant.

A ce moment la Chine est l’état le plus avancé au monde, à presque tous les points de vue. Bien que le monde humain terrestre de 2370 soit plus multipolaire qu’en 2022, il reste rassemblé autour d’un point central économique, scientifique et culturel : la Chine.

Mauvaise nouvelle pour les égocentristes des démocraties à l’occidentale : la Chine n’est pas une démocratie suivant leur modèle. En deux mots, elle a géré la question des populations, des croyances religieuses scélérates et violentes, de la délinquance et de la pauvreté. Depuis environ 250 ans, c’est le centre du monde terrestre. Je suis l’un d’entre eux, chinois par ma mère, occidental par mon père qui est natif d’un pays européen nordique, mais je ressemble parfaitement à un chinois, enfin si l’on en croit mon souci de conformité des jeunes années de ce moi du futur. Lui et moi sommes la même personne avec deux costumes différents.

Avant la seconde moitié de ce 23ème siècle, le crédit social a évolué vers une forme de reconnaissance entièrement basée sur l’utilité de l’individu envers la collectivité. Autour de moi, personne ne conteste ce système qui nous parait à la fois juste et logique.

Il n’y a pas eu de guerre nucléaire généralisée, juste des explosions d’armes nucléaires tactiques de puissance "modérée", dans des conflits dont les enjeux étaient l’énergie, au 21ème et au 22ème siècle. Je ne m’intéresse pas plus à l’histoire du 21ème siècle qu’une personne de 2030 se soucie de ce qui s’est passé au 17ème siècle, ici ou là. C’est juste de la culture générale non impliquante.

Comme les souvenirs reviennent régulièrement, la scène s’étoffe de plus en plus. Ma vie personnelle d’alors, je pense que chacun s’en fiche, alors parlons de mon action principale : je vais participer à la préparation de l’intégration de l’humanité dans le groupe cosmique local.

Non, la "révélation" généralisée ne semble pas être pour demain.

Auteur: Auburn Marc

Info: Post FB du 21 août 2022 - Voyage, mémoire et géopolitique du 21ème siècle

[ voyage astral ] [ futurologie ] [ ufologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

mimétisme

La surexposition a déformé la science des neurones miroirs

Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.

Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.

Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.

Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.

Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.

Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.

Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.

Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.

L'ascension et la chute

Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.

Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.

Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.

Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.

(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)

Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».

Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.

Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs.  Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il.  Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.

Le neurone miroir, redéfini

Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.

En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.

Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.

"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.

Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions  personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.

Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.

L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.



 

Auteur: Internet

Info: https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024

[ pulsions partagées ] [ actions symboles ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

exobiologie

Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres

Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.

En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.

Jusqu'à ce que ce ne soit plus le cas.

La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.

Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.

Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.

De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?

"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."

"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.

Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.

Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.

"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."

Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.

Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.

Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.

Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.

" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.

Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, "  j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.

Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.

Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.

La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.

"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."



Auteur: Internet

Info: https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024

[ xénobiologie ]

 

Commentaires: 0

Ajouté à la BD par miguel

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

chronos

Prix Nobel de physique 2023 : on a tout compris et on vous explique simplement pourquoi c’est génial

Anne L’Huillier, Ferenc Krausz et Pierre Agostini ont inventé la physique attoseconde, et ça méritait bien d’être expliqué.

Les "impulsions laser très courtes permettant de suivre le mouvement ultrarapide des électrons à l’intérieur des molécules et des atomes", vous dites ? Les lauréats du prix Nobel de physique 2023, le Hongrois Ferenc Krausz et les Français Anne L’Huillier et Pierre Agostini n’ont pas choisi le thème le plus parlant aux néophytes (mais la physique fondamentale l’est rarement).

Commençons par un terme étrange : les lauréats sont les inventeurs de la physique attoseconde. Atto, quoi ? Une attoseconde est une fraction de seconde, précisément 1×10−18 seconde : c’est très, très peu. "Pour vous donner une idée", explique au HuffPost le physicien Franck Lépine, chercheur du CNRS à l’Institut lumière matière, et collaborateur des Nobel 2023, en terme d’ordre de grandeur "il y a autant de différence entre une attoseconde et une seconde qu’entre une seconde et l’âge de l’univers".

Lorsqu'il est contemplé à cette échelle de temps, le monde ralentit. Le battement d'ailes d'un colibri devient une éternité.

Aller "chercher" une attoseconde précise dans une seconde, c’est donc pointer une seconde précise dans l’univers depuis sa naissance. On vous l’avait bien dit, c’est court, un laps de temps à peine concevable.

La photo la plus rapide du monde

Mais comment ont-ils "inventé" cette physique ? Les Nobel 2023 ont réussi à mettre au point un appareil qui permet d’observer les électrons au sein de la matière : des éléments au déplacement si rapide que seul un "flash" de l’ordre de l’attoseconde permet de les capturer. Les trois chercheurs sont donc récompensés pour la mise au point d’une "caméra" ultrarapide… Et on va même vous raconter comment elle fonctionne.

Une impulsion très puissante est envoyée au laser vers des atomes. Sous l’effet de la lumière envoyée, Les électrons qui gravitent autour de ces atomes vont alors être accélérés et émettre à leur tour un flash lumineux qui dure environ une attoseconde : c’est ce que l’on appelle la High harmonic generation, ou production d’harmoniques élevées. Ce sont ces impulsions qui vont prendre les électrons en photo. Pourquoi une durée aussi courte est-elle nécessaire ? Parce que les électrons ne tiennent pas en place.

Au-delà de la physique

"Faisons un parallèle avec le cinéma, explique Franck Lépine. On découpe le mouvement en un certain nombre de photos par seconde. La photo fige l’objet qui bouge, mais si la capture prend trop de temps, on découpe le mouvement, les images se superposent", ce qui crée un effet de flou. "Si jamais nos flashes de lumières durent trop longtemps, on ne va pas voir seulement électrons bouger, mais également les atomes, voire les ensembles d’atomes", et donc l’objet de l’observation ne sera pas net.

Les découvertes des trosi chercheurs ne permettent pas seulement d’observer les électrons avec une précision nouvelle. Elles sont également un instrument pour les manipuler. La lumière envoyée sur les électrons les bouscule, et là encore la physique attoseconde peut tout changer, et pas seulement dans le domaine des sciences fondamentales. "On peut manipuler les réactions chimiques en manipulant les électrons", détaille Franck Lépine.

À Lyon, son laboratoire est l’un des trois en France à disposer des équipements nécessaires pour travailler avec la physique attoseconde. "Parmi les choses sur lesquelles on travaille, il y a l’utilisation des technologies attoseconde pour comprendre comment fonctionne l’ADN du vivant." La physique attoseconde, vous n’en entendrez peut-être pas parler à nouveau de sitôt, mais les découvertes qui en découlent certainement.

Historique

En 1925, Werner Heisenberg, pionniers de la mécanique quantique, a affirmé que le temps nécessaire à un électron pour faire le tour d'un atome d'hydrogène était inobservable. Dans un sens, il avait raison. Les électrons ne tournent pas autour d'un noyau atomique comme les planètes autour des étoiles. Les physiciens les considèrent plutôt comme des ondes de probabilité qui donnent leurs chances d'être observées à un certain endroit et à un certain moment, de sorte que nous ne pouvons pas mesurer un électron qui vole littéralement dans l'espace.

Heisenberg a sous-estimé l'ingéniosité de physiciens du XXe siècle comme L'Huillier, Agostini et Krausz. Les chances que l'électron soit ici ou là varient d'un moment à l'autre, d'une attoseconde à l'autre. Grâce à la possibilité de créer des impulsions laser attosecondes capables d'interagir avec les électrons au fur et à mesure de leur évolution, les chercheurs peuvent sonder directement les différents comportements des électrons.

Comment les physiciens produisent-ils des impulsions attosecondes ?

Dans les années 1980, Ahmed Zewail, de l'Institut de technologie de Californie, a développé la capacité de faire clignoter des lasers avec des impulsions d'une durée de quelques femtosecondes, soit des milliers d'attosecondes. Ces impulsions, qui ont valu à Zewail le prix Nobel de chimie en 1999, étaient suffisantes pour permettre aux chercheurs d'étudier le déroulement des réactions chimiques entre les atomes dans les molécules. Cette avancée a été qualifiée de "caméra la plus rapide du monde".

Pendant un certain temps, une caméra plus rapide semblait inaccessible. On ne savait pas comment faire osciller la lumière plus rapidement. Mais en 1987, Anne L'Huillier et ses collaborateurs ont fait une observation intrigante : Si vous éclairez certains gaz, leurs atomes sont excités et réémettent des couleurs de lumière supplémentaires qui oscillent plusieurs fois plus vite que le laser d'origine - un effet connu sous le nom d'"harmoniques". Le groupe de L'Huillier a découvert que dans des gaz comme l'argon, certaines de ces couleurs supplémentaires apparaissaient plus brillantes que d'autres, mais selon un schéma inattendu. Au début, les physiciens ne savaient pas trop quoi penser de ce phénomène.

Au début des années 1990, L'Huillier et d'autres chercheurs ont utilisé la mécanique quantique pour calculer les différentes intensités des diverses harmoniques. Ils ont alors pu prédire exactement comment, lorsqu'un laser infrarouge oscillant lentement frappait un nuage d'atomes, ces atomes émettaient à leur tour des faisceaux de lumière "ultraviolette extrême" oscillant rapidement. Une fois qu'ils ont compris à quelles harmoniques il fallait s'attendre, ils ont trouvé des moyens de les superposer de manière à obtenir une nouvelle vague : une vague dont les pics s'élèvent à l'échelle de l'attoseconde. Amener des collectifs géants d'atomes à produire ces ondes finement réglées de concert est un processus que Larsson compare à un orchestre produisant de la musique.

 Au cours des années suivantes, les physiciens ont exploité cette compréhension détaillée des harmoniques pour créer des impulsions attosecondes en laboratoire. Agostini et son groupe ont mis au point une technique appelée Rabbit, ou "reconstruction d'un battement attoseconde par interférence de transitions à deux photons". Grâce à Rabbit, le groupe d'Agostini a généré en 2001 une série d'impulsions laser d'une durée de 250 attosecondes chacune. La même année, le groupe de Krausz a utilisé une méthode légèrement différente, connue sous le nom de streaking, pour produire et étudier des salves individuelles d'une durée de 650 attosecondes chacune. En 2003, L'Huillier et ses collègues les ont tous deux surpassés avec une impulsion laser d'une durée de 170 attosecondes seulement.

Que peut-on faire avec des impulsions attosecondes ?

Les impulsions attosecondes permettent aux physiciens de détecter tout ce qui change sur une période de quelques dizaines à quelques centaines d'attosecondes. La première application a consisté à essayer ce que les physiciens avaient longtemps cru impossible (ou du moins extrêmement improbable) : voir exactement ce que font les électrons.

En 1905, Albert Einstein a donné le coup d'envoi de la mécanique quantique en expliquant l'effet photoélectrique, qui consiste à projeter des électrons dans l'air en éclairant une plaque métallique (sa théorie lui vaudra plus tard le prix Nobel de physique en 1921). Avant l'ère de la physique des attosecondes, les physiciens supposaient généralement que la chaîne de réactions qui conduisait à la libération des électrons lancés était instantanée.

En 2010, Krausz et ses collègues ont démontré le contraire. Ils ont utilisé des impulsions attosecondes pour chronométrer les électrons détachés des atomes de néon. Ils ont notamment constaté qu'un électron dans un état de basse énergie fuyait son hôte 21 attosecondes plus vite qu'un électron dans un état de haute énergie. En 2020, un autre groupe a montré que les électrons s'échappent de l'eau liquide des dizaines d'attosecondes plus rapidement que de la vapeur d'eau.

D'autres applications des impulsions attosecondes sont en cours de développement. La technique pourrait permettre de sonder toute une série de phénomènes liés aux électrons, notamment la façon dont les particules portent et bloquent la charge électrique, la façon dont les électrons rebondissent les uns sur les autres et la façon dont les électrons se comportent collectivement. Krausz fait également briller des flashs attosecondes sur du sang humain. L'année dernière, il a contribué à montrer que de minuscules changements dans un échantillon de sang peuvent indiquer si une personne est atteinte d'un cancer à un stade précoce, et de quel type.

Plus tôt dans la matinée, le comité Nobel a eu du mal à joindre Mme L'Huillier pour l'informer qu'elle était la cinquième femme de l'histoire à recevoir le prix Nobel de physique. Lorsqu'il a finalement réussi à la joindre, après trois ou quatre appels manqués, elle était en train de donner une conférence à ses étudiants. Elle est parvenue à la terminer, même si la dernière demi-heure a été très difficile. "J'étais un peu émue à ce moment", a-t-elle déclaré plus tard.

Auteur: Internet

Info: huffingtonpost et quantamagazine, 3 sept. 2023

[ nanomonde ]

 

Commentaires: 0

Ajouté à la BD par miguel

nord-sud

Les "élites" autoproclamées de Davos ont peur. Très peur. Lors des réunions du Forum économique mondial de cette semaine, le maître à penser Klaus Schwab - affichant son numéro de méchant de James Bond - n'a cessé de répéter un impératif catégorique : nous avons besoin de "coopération dans un monde fragmenté".

Bien que son diagnostic de la "fragmentation la plus critique" dans laquelle le monde est aujourd'hui embourbé soit, comme on pouvait s'y attendre, sombre, Herr Schwab maintient que "l'esprit de Davos est positif" et qu'au final, nous pourrons tous vivre heureux dans une "économie verte et durable".

Ce que Davos a su faire cette semaine, c'est inonder l'opinion publique de nouveaux mantras. Il y a le "nouveau système" qui, compte tenu de l'échec lamentable de la grande réinitialisation tant vantée, ressemble maintenant à une mise à jour hâtive du système d'exploitation actuel, qui a été ébranlé.

Davos a besoin de nouveau matériel, de nouvelles compétences en programmation, voire d'un nouveau virus. Pourtant, pour l'instant, tout ce qui est disponible est une "polycrise" ou, en langage de Davos, un "ensemble de risques mondiaux liés entre eux et dont les effets s'aggravent". 

En clair : une parfaite tempête.

Les insupportables raseurs de l'île "Diviser pour régner" du nord de l'Europe viennent de découvrir que la "géopolitique", hélas, n'est jamais vraiment entrée dans le pénible tunnel de la "fin de l'histoire" : à leur grande surprise, elle est maintenant centrée - à nouveau - sur le Heartland, comme elle le fut pendant la majeure partie de l'histoire connue.

Ils se plaignent d'une géopolitique "menaçante", synonyme de Russie-Chine, l'Iran en plus.

Mais la cerise sur le gâteau alpin, c'est l'arrogance/la stupidité qui révèle le jeu : la City de Londres et ses vassaux sont livides parce que le "monde créé par Davos" s'effondre rapidement.

Davos n'a pas " inventé " le monde, si ce n'est son propre simulacre.

Davos n'a jamais rien compris, car ces "élites" ont toujours été occupées à faire l'éloge de l'Empire du Chaos et de ses "aventures" meurtrières dans le Sud.

Non seulement Davos n'a pas su prévoir toutes les crises économiques majeures récentes, mais surtout la "tempête parfaite" actuelle, liée à la désindustrialisation de l'Occident collectif engendrée par le néolibéralisme.

Et, bien sûr, Davos n'a aucune idée de la véritable remise à zéro qui tend à aller vers la multipolarité. 

Des leaders d'opinion autoproclamés sont occupés à "redécouvrir" qu'un siècle plus tard La Montagne magique de Thomas Mann se déroule à Davos - "avec pour toile de fond une maladie mortelle et une guerre mondiale imminente".

Eh bien, de nos jours, la "maladie" - arme entièrement bio-institutionnalisée - n'est pas vraiment mortelle en soi. Et la "guerre mondiale imminente" est de fait activement encouragée par une cabale de néo-cons et autres néolibéraux américains : un État profond non élu, non responsable, bipartisan et même pas soumis à une idéologie. Le criminel de guerre centenaire Henry Kissinger ne l'a toujours pas compris.

Le panel de Davos sur la démondialisation a multiplié les non-séquences, mais le ministre hongrois des affaires étrangères, Peter Szijjarto, a au moins apporté une dose de réalité.

Quant au vice-premier ministre chinois Liu He, avec sa vaste connaissance de la finance, de la science et de la technologie, il a au moins été très utile pour définir les cinq grandes lignes directrices de Pékin pour l'avenir prévisible - au-delà de la sinophobie impériale habituelle.

La Chine se concentrera sur l'expansion de la demande intérieure, le maintien de chaînes industrielles et d'approvisionnement "fluides", le "développement sain du secteur privé", l'approfondissement de la réforme des entreprises d'État et la recherche d'"investissements étrangers attrayants".

Résistance russe, précipice américain 

Emmanuel Todd n'était pas à Davos. Mais c'est l'anthropologue, historien, démographe et analyste géopolitique français qui a fini par hérisser toutes les plumes supposément compétentes de l'Occident collectif ces derniers jours avec un objet anthropologique fascinant : une interview basée sur la réalité.

Todd s'est entretenu avec Le Figaro - journal de prédilection de l'establishment et de la haute bourgeoisie française. L'interview a été publiée vendredi dernier à la page 22, entre les proverbiales tirades russophobes et avec une mention extrêmement brève en bas de la première page. Il fallait donc que les gens fassent des efforts pour la trouver.   

Todd a plaisanté en disant qu'il avait l'image - absurde - d'un "rebelle destroy" en France, alors qu'au Japon, il est respecté, qu'il fait l'objet d'articles dans les médias grand public et que ses livres sont publiés avec grand succès, y compris le dernier (plus de 100 000 exemplaires vendus) : "La troisième guerre mondiale a déjà commencé".

Il est significatif que ce best-seller japonais n'existe pas en français, étant donné que toute l'industrie de l'édition basée à Paris suit la ligne de l'UE et de l'OTAN sur l'Ukraine.

Le fait que Todd ait raison sur plusieurs points est un petit miracle dans le paysage intellectuel européen actuel, d'une myopie abyssale (il existe d'autres analystes, notamment en Italie et en Allemagne, mais ils ont bien moins de poids que Todd).

Voici le résumé des thème principaux abordés par Todd.

- Une nouvelle guerre mondiale est en cours : En "passant d'une guerre territoriale limitée à un affrontement économique mondial, entre l'Occident collectif d'un côté et la Russie liée à la Chine de l'autre, cette guerre est devenue une guerre mondiale".

- Selon Todd, le Kremlin a commis une erreur en calculant qu'une société ukrainienne décomposée s'effondrerait immédiatement. Bien entendu, il n'explique pas en détail comment l'Ukraine a été militarisée à outrance par l'alliance militaire de l'OTAN.

- Todd a raison lorsqu'il souligne que l'Allemagne et la France sont devenues des partenaires mineurs de l'OTAN et n'étaient pas au courant de ce qui se tramait en Ukraine sur le plan militaire : "Ils ne savaient pas même que les Américains, les Britanniques et les Polonais pouvaient permettre à l'Ukraine de mener une guerre prolongée. L'axe fondamental de l'OTAN est désormais Washington-Londres-Varsovie-Kiev".

- La principale révélation de Todd est meurtrière : "La résistance de l'économie russe conduit le système impérial américain vers le précipice. Personne n'avait prévu que l'économie russe tiendrait face à la 'puissance économique' de l'OTAN".

- Conséquence, "les contrôles monétaires et financiers américains sur le monde peuvent s'effondrer, et avec eux la possibilité pour les USA de financer pour rien leur énorme déficit commercial".

- "C'est pourquoi nous sommes dans une guerre sans fin, dans un affrontement dont la conclusion est l'effondrement de l'un ou l'autre." 

- Sur la Chine, Todd pourrait faire penser à une version plus féroce de celle de Liu He à Davos : "C'est le dilemme fondamental de l'économie américaine : elle ne peut pas faire face à la concurrence chinoise sans importer une main-d'œuvre chinoise qualifiée."

- Quant à l'économie russe, "elle accepte les règles du marché, mais avec un rôle important de l'État, et elle garde la flexibilité de former des ingénieurs qui permettent des adaptations, industrielles et militaires."

- Tout cela nous amène, une fois de plus, à la globalisation, d'une manière que les tables rondes de Davos ont été incapables de comprendre : "Nous avons tellement délocalisé notre activité industrielle que nous ne savons pas si notre production de guerre peut être soutenue".

- Dans une interprétation plus érudite de ce sophisme du "choc des civilisations", Todd s'intéresse au soft power et arrive à une conclusion surprenante : "Sur 75 % de la planète, l'organisation de la parentalité était de type patrilinéaire*, et c'est pourquoi nous pouvons identifier une forte compréhension de la position russe. Pour le collectif non-occidental, la Russie affirme un conservatisme moral rassurant."

- Ainsi, ce que Moscou a réussi à faire, c'est de "se repositionner comme l'archétype d'une grande puissance, non seulement "anticolonialiste" mais aussi patrilinéaire et conservatrice en termes de mœurs traditionnelles."

Sur la base de tout ce qui précède, Todd brise le mythe vendu par les "élites" de l'UE/OTAN - Davos inclus - selon lequel la Russie est "isolée", en soulignant comment les votes à l'ONU et le sentiment général à travers le Sud global caractérisent la guerre, "décrite par les médias grand public comme un conflit de valeurs politiques, en fait, à un niveau plus profond, comme un conflit de valeurs anthropologiques."      

Entre lumière et obscurité

Se pourrait-il que la Russie - aux côtés du vrai Quad, tel que je l'ai défini (avec la Chine, l'Inde et l'Iran) - l'emporte sur le terrain des enjeux anthropologiques ?  

Le vrai Quad a tout ce qu'il faut pour s'épanouir en un nouveau foyer interculturel d'espoir dans un "monde fragmenté".

Mélangez la Chine confucéenne (non dualiste, sans divinité transcendante, mais avec le Tao qui coule à travers tout) avec la Russie (chrétienne orthodoxe, vénérant la divine Sophia) ; l'Inde polythéiste (roue de la renaissance, loi du karma) ; et l'Iran chiite (islam précédé par le zoroastrisme, l'éternelle bataille cosmique entre la Lumière et les Ténèbres).

Cette unité dans la diversité est certainement plus attrayante, et plus édifiante, que l'axe de la guerre éternelle.

Le monde en tirera-t-il une leçon ? Ou, pour citer Hegel - "ce que nous apprenons de l'histoire, c'est que personne n'apprend de l'histoire" - sommes-nous irrémédiablement condamnés ?

Auteur: Escobar Pepe

Info: https://www.presstv.ir, 18 janvier 2023, *système de filiation dans lequel chacun relève du lignage de son père

[ ukraine 2023 ] [ point chaud ] [ inertie patriarcale ]

 

Commentaires: 0

Ajouté à la BD par miguel