Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après une recherche complexe. Et utilisez le nuage de corrélats !!!!.....
Lire la suite >>
Résultat(s): 5201
Temps de recherche: 0.0401s
symbiose
Les cellules du corps se parlent du vieillissement
Les biologistes ont découvert que les mitochondries de différents tissus communiquent entre elles pour réparer les cellules blessées. Lorsque leur signal échoue, l’horloge biologique commence à ralentir.
Le vieillissement peut apparaitre comme un processus non régulé : au fil du temps, nos cellules et notre corps accumulent inévitablement des bosses et des bosses qui provoquent des dysfonctionnements, des échecs et finalement la mort. Cependant, en 1993, une découverte a bouleversé cette interprétation des événements. Les chercheurs ont trouvé une mutation dans un seul gène qui doublait la durée de vie d'un ver ; des travaux ultérieurs ont montré que des gènes apparentés, tous impliqués dans la réponse à l'insuline, sont des régulateurs clés du vieillissement chez une multitude d'animaux, depuis les vers et les mouches jusqu'aux humains. La découverte suggère que le vieillissement n’est pas un processus aléatoire – en fait, des gènes spécifiques le régulent – ce qui ouvre la porte à des recherches plus approfondies sur la manière dont le vieillissement se déroule au niveau moléculaire.
Récemment, une série d’articles ont documenté une nouvelle voie biochimique qui régule le vieillissement, basée sur les signaux transmis entre les mitochondries, les organelles les plus connues comme la centrale électrique de la cellule. En travaillant avec des vers, les chercheurs ont découvert que les dommages causés aux mitochondries dans les cellules cérébrales déclenchaient une réponse de réparation qui était ensuite amplifiée, déclenchant des réactions similaires dans les mitochondries de tout le corps du ver. L'effet de cette activité de réparation prolonge la durée de vie de l'organisme : les vers dont les dommages mitochondriaux étaient rainsi éparés vivaient 50 % plus longtemps.
De plus, les cellules de la lignée germinale – les cellules qui produisent les ovules et les spermatozoïdes – étaient au cœur de ce système de communication anti-âge. C’est une découverte qui ajoute de nouvelles dimensions aux préoccupations en matière de fertilité impliquées lorsque les gens parlent du vieillissement et de leur " horloge biologique ". Certaines des découvertes ont été rapportées dans Science Advances et d’autres ont été publiées sur le serveur de prépublication scientifique biorxiv.org à l’automne.
La recherche s'appuie sur un ensemble de travaux récents suggérant que les mitochondries sont des organites sociaux qui peuvent communiquer entre elles même lorsqu'elles se trouvent dans des tissus différents. Essentiellement, les mitochondries fonctionnent comme des talkies-walkies cellulaires, envoyant des messages dans tout le corps qui influencent la survie et la durée de vie de l’organisme tout entier.
"Ce qui est important ici, c'est qu'en plus des programmes génétiques, il existe également un facteur très important pour réguler le vieillissement, à savoir la communication entre les tissus", a déclaré David Vilchez, qui étudie le vieillissement à l'Université de Cologne et n'a pas participé à l'étude.
Le biologiste cellulaire Andrew Dillin a découvert il y a environ dix ans les premiers indices de cette nouvelle voie qui régule la durée de vie. Il était à la recherche de gènes prolongeant la vie des vers Caenorhabditis elegans lorsqu'il a découvert que les dommages génétiques aux mitochondries prolongeaient la vie des vers de 50 %.
C'était inattendu. Dillin avait supposé que des mitochondries défectueuses accéléreraient la mort plutôt que de prolonger la vie – après tout, les mitochondries sont essentielles au fonctionnement cellulaire. Pourtant, pour une raison ou une autre, le fait de perturber le bon fonctionnement des mitochondries obligeait les vers à vivre plus longtemps.
Plus intrigant était le fait que les mitochondries endommagées dans le système nerveux des vers semblaient être à l'origine de cet effet. "Cela montre vraiment que certaines mitochondries sont plus importantes que d'autres", a déclaré Dillin, qui est maintenant professeur à l'Université de Californie à Berkeley. "Les neurones dictent cela au reste de l'organisme, et c'était vraiment surprenant."
Au cours de la dernière décennie, le biologiste cellulaire Andrew Dillin a découvert les détails biochimiques d'une nouvelle voie qui régule le vieillissement, dans laquelle les mitochondries des cellules du corps communiquent sur la santé cellulaire.
Aujourd'hui, Dillin et son équipe ont élargi ces découvertes en découvrant de nouveaux détails sur la façon dont les mitochondries du cerveau communiquent avec les cellules du corps du ver pour prolonger la vie.
Tout d'abord, il fallait comprendre pourquoi des dommages causés aux mitochondries du cerveau pouvaient avoir un effet bénéfique sur l'organisme. Le processus de production d'énergie d'une mitochondrie nécessite une machinerie moléculaire extrêmement complexe comprenant des dizaines de parties protéiques différentes. Lorsque les choses tournent mal, par exemple lorsque certains composants sont manquants ou mal repliés, les mitochondries activent une réponse au stress, connue sous le nom de réponse protéique dépliée, qui délivre des enzymes de réparation pour aider les complexes à s'assembler correctement et à restaurer la fonction mitochondriale. De cette façon, la réponse protéique déployée maintient les cellules en bonne santé.
Dillin s’attendait à ce que ce processus se déroule uniquement à l’intérieur des neurones dont les mitochondries sont endommagées. Pourtant, il a observé que les cellules d’autres tissus du corps du ver activaient également des réponses de réparation même si leurs mitochondries étaient intactes.
C'est cette activité de réparation qui a permis aux vers de vivre plus longtemps. Comme si on emmenait régulièrement une voiture chez un mécanicien, la réponse protéique déployée semblait maintenir les cellules en bon état de fonctionnement et fonctionner comme un élément anti-âge. Ce qui restait mystérieux était la façon dont cette réponse protéique déployée était communiquée au reste de l’organisme.
Après quelques recherches, l'équipe de Dillin a découvert que les mitochondries des neurones stressés utilisaient des vésicules – des conteneurs en forme de bulles qui déplacent les matériaux autour de la cellule ou entre les cellules – pour transmettre un signal appelé Wnt au-delà des cellules nerveuses vers d'autres cellules du corps. Les biologistes savaient déjà que Wnt joue un rôle dans la configuration du corps au cours du développement embryonnaire précoce, au cours duquel il déclenche également des processus de réparation tels que la réponse protéique déployée. Pourtant, comment la signalisation Wnt, lorsqu’elle est activée chez un adulte, pourrait-elle éviter d’activer le programme embryonnaire ?
Dillin soupçonnait qu'il devait y avoir un autre signal avec lequel Wnt interagissait. Après d'autres travaux, les chercheurs ont découvert qu'un gène exprimé dans les mitochondries de la lignée germinale – et dans aucune autre mitochondrie – peut interrompre les processus de développement de Wnt. Ce résultat lui suggère que les cellules germinales jouent un rôle essentiel dans le relais du signal Wnt entre le système nerveux et les tissus du reste du corps.
"La lignée germinale est absolument essentielle pour cela", a déclaré Dillin. Il n’est cependant pas clair si les mitochondries germinales agissent comme des amplificateurs, recevant le signal des mitochondries du cerveau et le transmettant à d’autres tissus, ou si les tissus récepteurs " écoutent " les signaux provenant des deux sources.
Quoi qu’il en soit, la force du signal germinal régule la durée de vie de l’organisme, a déclaré Dillin. À mesure qu’un ver vieillit, la qualité de ses œufs ou de son sperme diminue – ce que nous appelons le tic-tac d’une horloge biologique. Ce déclin se reflète également dans la capacité changeante des cellules germinales à transmettre les signaux des mitochondries du cerveau, a-t-il suggéré. À mesure que le ver vieillit, sa lignée germinale transmet le signal de réparation moins efficacement et son corps décline également.
Les scientifiques ne savent pas encore si ces découvertes s’appliquent aux humains et à notre façon de vieillir. Pourtant, l’hypothèse a du sens d’un point de vue évolutif plus large, a déclaré Dillin. Tant que les cellules germinales sont saines, elles envoient des signaux favorables à la survie pour garantir que leur organisme hôte survit et se reproduit. Mais à mesure que la qualité des cellules germinales diminue, il n’y a aucune raison évolutive de continuer à prolonger la durée de vie ; du point de vue de l'évolution, la vie existe pour se reproduire.
Le fait que les mitochondries puissent communiquer entre elles peut sembler quelque peu alarmant, mais il existe une explication. Il y a longtemps, les mitochondries étaient des bactéries libres qui s’associaient à un autre type de cellules primitives pour travailler ensemble dans ce qui est devenu nos cellules complexes modernes. Ainsi, leur capacité à communiquer est probablement une relique de l’ancêtre bactérien libre des mitochondries.
"Cette petite chose qui existe à l'intérieur des cellules depuis des milliards d'années conserve toujours ses origines bactériennes", a déclaré Dillin. Et si ses recherches sur les vers se confirment dans des organismes plus complexes comme les humains, il est possible que vos mitochondries parlent en ce moment de votre âge.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.quantamagazine.org/, Viviane Callier, 8 janvier 2024
[
impulsion source
]
[
jouvence
]
subatomique
Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"
Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.
(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)
En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.
Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.
L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.
Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.
Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.
Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.
Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.
Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".
"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.
Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.
L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.
La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.
En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.
Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.
Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.
Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).
Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.
"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.
Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.
"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.
Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.
"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
livesciences.com, Ben Turner, 17 août 2022
[
anions
]
[
cations
]
aqua simplex
On assiste à un monde qui meurt, mais c’est très bien, car il va laisser la place à une autre manière de vivre
La sixième limite planétaire est officiellement dépassée : il s’agit de l’eau douce. Pourtant, ce bien commun le plus précieux semble toujours considéré comme intarissable. Charlène Descollonges, lanceuse d’alerte engagée pour préserver l’eau et l’ensemble du vivant, nous invite à ralentir et faire alliance, afin d’envisager un futur désirable.
Charlène Descollonges est ingénieure hydrologue. Sa mission : changer le regard sur l'eau pour ne plus l'exploiter, mais l'intégrer dans un grand cycle. Après une carrière dans la fonction publique sur la gestion et la gouvernance de la ressource en eau, elle est aujourd'hui consultante indépendante et accompagne les entreprises et collectivités. Parallèlement, elle est la présidente et cofondatrice de l'association " Pour une hydrologie régénérative ", qui vise à améliorer la résilience des territoires face aux risques liés à l'eau. Elle est également auteure et conférencière. Son deuxième livre, Agir pour l'eau, est paru le 12 septembre. Publicité
Futura : L’humanité partage avec l’ensemble du vivant moins de 1 % d’eau douce disponible sur la planète. Comment l’eau est-elle répartie sur Terre ?
Charlène Descollonges : Le cycle de l'eau est constitué de stocks, reliés entre eux par des flux dynamiques. Le principal stock d'eau sur Terre se trouve dans les mers (97,5 %), l’eau douce ne représentant que 2,5 % de l'eau totale. Dans ces 2,5 %, les trois quarts sont emprisonnés dans les glaciers (inlandsis, banquises et glaciers continentaux), 22 % se trouvent dans des nappes très profondes, appelées aquifères et il reste 1 % de l'eau douce disponible à l'ensemble du vivant. Dans ces 1 %, 90 % sont dans des aquifères continentaux et le reste dans les eaux de surface. Finalement, seulement 0,001 % de l'eau présente sur la planète est accessible et donc effectivement utilisable par l'Homme.
Lors de tes interventions, tu dis souvent que le cycle de l’eau que l’on apprend à l’école est faux. Peux-tu nous expliquer pourquoi ?
C.D. : Notre représentation schématique du cycle de l'eau est fausse pour deux raisons. D'une part, elle ne représente pas l'impact de l'Homme, en raison du changement climatique et des pollutions sur le grand cycle de l'eau, alors qu'il n'y a quasiment plus aucun espace sur Terre où l'Homme n'est pas. Or, on ne peut pas résoudre un problème si on n'y intègre pas les sources qui y sont à l'origine - et ce n'est pas uniquement moi qui le dis, je me base sur une étude menée en 2019 par Abbott et al.
L'autre aspect qui n'est pas représenté, c'est le recyclage continental de l'eau verte, qui est à l'origine des pluies dans la plupart des pays du monde. En France, par exemple, on est sous l'influence des régimes océaniques pour 80 % des pluies continentales, mais le reste provient des sols, des arbres, de la végétation dont l'eau s'évapore dans l'atmosphère et est recyclée au sein même du continent, tant et si bien qu'on est source de pluie pour d'autres pays. En impactant les sols, les arbres et la végétation de la France métropolitaine, on impacte le régime des pluies de tout le continent européen, voire jusqu'en Asie. C'est ce que l'on appelle les bassins atmosphériques : on nous a appris les bassins hydrologiques de l’eau bleue, mais jamais les bassins atmosphériques de l'eau verte. Sur le schéma du grand cycle de l'eau, il faudrait donc y voir représenté l'impact anthropique sur l'eau bleue, l'eau verte et l'eau grise, ainsi que le recyclage continental de l'eau verte au niveau des bassins atmosphériques.
Le saviez-vous ?
L’eau est définie par trois couleurs : l’eau verte correspond à l’eau évapo-transpirée par le végétal, l’eau bleue se trouve dans les nappes, lacs et rivières, et l’eau grise désigne les diverses pollutions aquatiques.
Quelle est l’empreinte anthropique sur ce cycle, et quelles en sont les conséquences ?
C.D. : L'humanité utilise chaque année 24 000 milliards de mètres cubes d'eau, soit environ la moitié du flux d'eau douce qui va des continents vers l'océan. La principale empreinte est l'eau verte, liée à la déforestation, l'agriculture, l'artificialisation des sols... Pourquoi ? Parce que nous sommes dépendants de l'humidité des sols pour faire pousser des végétaux. Parfois, c'est pour notre alimentation directe, mais la plupart du temps, c'est pour alimenter le bétail : notre empreinte eau est donc dominée par l'agriculture destinée au bétail.
Plus généralement, l'empreinte eau est liée à nos modes de vie et on peut la calculer pour chaque produit qu'on utilise au quotidien, y compris l'énergie : objets, vêtements, électronique et numérique... En France, l'empreinte eau quotidienne moyenne est de 5 000 litres d'eau par jour et par personne, avec la méthode de calcul volumétrique. Mais il existe une autre méthode de calcul, plus récente et basée sur l'analyse du cycle de vie de produits, qui estime cette empreinte autour de 9 000 à 11 000 litres d'eau par jour et par personne. C'est inimaginable. En plus du terme " empreinte ", je parlerais même de dépendance. Un calculateur d'empreinte va bientôt sortir, de la même façon que l'empreinte carbone, par Nos gestes climat.
“On a tout fait pour accélérer le grand cycle de l’eau. Résultat, il y a de plus en plus de sécheresses, d’inondations et d’érosions”
Maintenant, parlons des conséquences de cette empreinte. D'abord, on est passé d'un cycle long à un cycle court, en pompant de l'eau souterraine qui y circule lentement, pour l'amener en surface, puis dans l'atmosphère, où son temps de résidence est moindre. On a ensuite largement détruit les zones humides, qui sont de véritables éponges naturelles, capables de ralentir l'eau. Et enfin, on a énormément artificialisé les sols, bitumé des routes, rectifié la trajectoire des cours d'eau, construit des digues... Bref, on a tout fait pour accélérer le grand cycle de l'eau. Résultat, il y a de plus en plus de sécheresses, d'inondations et d'érosions. Ces aléas vont s'intensifier, mais des solutions existent.
Tu présentes l’hydrologie régénérative comme faisant partie des " solutions fondées sur la nature ". Quel est son principe ?
C.D. : L’hydrologie régénérative est une vision territoriale, à l'échelle des bassins versants qui concentrent l'eau bleue. Son concept est de ralentir l'eau, la répartir, faire en sorte qu'elle s'infiltre le plus possible dans les sols pour y être stockée et densifier la végétation. Le triptyque est le suivant : eau-sols-arbres. Travailler sur le cheminement de l'eau va permettre de la faire ralentir pour la répartir. Nourrir les sols par des couverts végétaux et des amendements va permettre d'avoir plus de matière organique, et donc des sols plus poreux, capables d'infiltrer et de stocker l'eau. Et enfin les arbres, avec des techniques d'agroforesterie qui associent des arbres à des cultures, toujours dans cette volonté de ralentir l'eau et de densifier la végétation. On essaie d'avoir une vision cohérente à l'échelle du bassin versant : on a commencé par le domaine agricole, mais il y a également une application en ville, au niveau des rivières et des forêts.
Quels sont les leviers d’action que chacun peut mettre en place ?
C.D. : Je suis convaincue que la mise en action individuelle est un préalable à la mise en action collective. Le premier niveau est de s'intéresser au petit cycle de l'eau, chez soi. D'où vient l'eau potable ? Comment repart-elle ? Comment est-elle traitée ? Est-elle bien traitée ? Qu'en est-il des cosmétiques, médicaments, résidus de produits ménagers ? On peut aussi avoir un jardin, y creuser une mare...
“La mise en action individuelle est un préalable à la mise en action collective”
Le deuxième niveau est de réduire l'empreinte eau dans son quotidien. Et s'il y a bien un écogeste qui devance tous les autres, c'est l'alimentation : réduire sa consommation de viande, s'approvisionner localement, privilégier la filière biologique... D'une manière générale, nous devons ralentir nos vies : l'hypermobilité conduit à l'artificialisation des sols car l'aménagement du territoire a un impact énorme sur le grand cycle de l'eau, sans parler de l'énergie, du numérique... Et le troisième niveau est de s'engager, cela passe par la formation et l'information. Engagez-vous dans un modèle régénératif où vous allez engendrer des impacts positifs sur les écosystèmes.
Je suis pessimiste quant à la trajectoire climatique que l'on prend, et donc aux effets sur le grand cycle de l'eau que l'on va ressentir. En revanche, je suis optimiste sur notre capacité d'adaptation et de résilience. C'est malheureux, mais l'Histoire nous a montré que c'est en vivant des grands chocs que l'on prend conscience de certaines choses.
Un dernier mot ?
C.D. : Une petite note pour les jeunes générations, celles qui se demandent " à quoi bon ? ". Je veux leur envoyer un message d'espérance, encore plus que d'espoir : on assiste à un monde qui meurt, mais c'est très bien, car il va laisser la place à un autre monde, une autre manière de vivre. On tend vers un futur désirable encouragé par des dynamiques collectives. L'espoir n'est pas perdu !
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.futura-sciences.com, 20 sept 2024
[
écologie
]
[
triade
]
métadonnées
Internet n’est pas assez développé pour former l’IA, mais une solution existe : les fausses données
Une nouvelle vague de start-up anticipe la crise existentielle à laquelle est confrontée l’industrie de l’intelligence artificielle (IA) : que se passera-t-il lorsqu’on sera à court de données ?
En 2011, Marc Andreessen, dont la société de capital-risque Andreessen Horowitz a depuis investi dans certaines des plus grandes start-up de l’IA, a écrit que " la technologie est en train de manger le monde ". Plus d’une décennie plus tard, c’est exactement ce qui est en train de se produire.
L’IA, et plus particulièrement les grands modèles de langage qui l’alimentent, est un consommateur vorace de données. Cependant, ces données sont limitées et s’épuisent. Les entreprises ont tout exploité dans leurs efforts pour former des IA toujours plus puissantes : transcriptions et sous-titres de vidéos YouTube, messages publics sur Facebook et Instagram, livres et articles de presse protégés par le droit d’auteur (parfois sans autorisation, parfois avec des accords de licence). ChatGPT d’OpenAI, le chatbot qui a contribué à la généralisation de l’IA, a déjà été entraîné sur l’ensemble de l’Internet public, soit environ 300 milliards de mots, y compris l’intégralité de Wikipédia et de Reddit. À un moment donné, il ne restera plus rien.
C’est ce que les chercheurs appellent " heurter le mur des données ". Selon eux, cela risque de se produire dès 2026. La création de données d’entraînement pour l’IA est donc une question à plusieurs milliards de dollars, à laquelle une cohorte émergente de start-up cherche une solution.
Une possibilité : créer des données artificielles
C’est l’approche adoptée par Gretel pour résoudre le problème des données de l’IA. La start-up crée ce que l’on appelle des " données synthétiques ", c’est-à-dire des données générées par l’IA qui imitent fidèlement des informations factuelles, mais qui ne sont pas réelles. Pendant des années, la start-up, aujourd’hui évaluée à 350 millions de dollars, a fourni des données synthétiques à des entreprises travaillant avec des informations personnelles identifiables qui doivent être protégées pour des raisons de confidentialité (les données des patients, par exemple). Cependant, aujourd’hui, son PDG Ali Golshan voit une opportunité de fournir aux entreprises d’IA en manque de données de fausses données fabriquées à partir de zéro, qu’elles peuvent utiliser pour entraîner leurs modèles d’IA.
" Les données synthétiques étaient tout à fait adaptées ", a déclaré Ali Golshan, ancien analyste de renseignements, à propos de la question du mur de données. " Elles résolvaient les deux faces d’une même pièce. Il était possible d’obtenir des données de haute qualité et de les rendre sûres. "
Cette approche " l’IA alimente l’IA " a déjà été adoptée par Anthropic, Meta, Microsoft et Google, qui ont tous utilisé des données synthétiques d’une manière ou d’une autre pour entraîner leurs modèles. Le mois dernier, la start-up Gretel a annoncé qu’elle mettrait ses données synthétiques à la disposition des clients utilisant Databricks, une plateforme d’analyse de données, pour construire des modèles d’IA.
Les limites des données synthétiques
Cependant, les données synthétiques ont leurs limites. Elles peuvent exagérer les biais d’un ensemble de données original et ne pas inclure les valeurs aberrantes, de rares exceptions que l’on ne verrait qu’avec des données réelles. Cela pourrait aggraver la tendance de l’IA à halluciner. Ou encore, les modèles formés sur de fausses données pourraient tout simplement ne rien produire de nouveau. Ali Golshan appelle ça une " spirale de la mort ", mais ce phénomène est plus connu sous le nom d’" effondrement du modèle ". Pour éviter cela, il demande à ses nouveaux clients de fournir à Gretel un morceau de données réelles et de haute qualité. "Des données inutiles et sûres restent des données inutiles ", a déclaré Ali Golshan à Forbes.
Un autre moyen de contourner le mur des données : les gens. Certaines start-up embauchent des armées de personnes pour nettoyer et étiqueter les données existantes afin de les rendre plus utiles pour l’IA ou de créer davantage de nouvelles données.
Le poids lourd de l’étiquetage des données est le mastodonte Scale AI, valorisé à 14 milliards de dollars, qui fournit des données annotées par des humains à des start-up d’IA de premier plan telles qu’OpenAI, Cohere et Character AI. L’entreprise a des activités gigantesques, employant quelque 200 000 travailleurs dans le monde entier par l’intermédiaire d’une filiale appelée Remotasks. Ces travailleurs réalisent plusieurs tâches, comme dessiner des boîtes autour d’objets dans une image, ou comparer différentes réponses à une question et évaluer laquelle est la plus précise.
À une échelle encore plus grande, Toloka, une société basée à Amsterdam, a rassemblé neuf millions d’étiqueteurs humains ou " tuteurs d’IA " à des fins similaires. Surnommés " Tolokers ", ces travailleurs du monde entier annotent également des données, par exemple en étiquetant des informations personnellement identifiables dans un ensemble de données destiné à être utilisé dans un projet communautaire d’IA mené par Hugging Face et ServiceNow. Néanmoins, ils créent également des données à partir de zéro : ils traduisent des informations dans de nouvelles langues, les résument et les transcrivent.
Toloka travaille également avec des experts tels que des docteurs en physique, des scientifiques, des juristes et des ingénieurs en logiciel afin de créer des données originales spécifiques à un domaine pour les modèles qui ciblent des tâches de niche. La start-up engage par exemple des juristes germanophones pour créer du contenu pouvant être intégré dans des modèles d’IA juridiques. Cependant, c’est un travail considérable que de mobiliser des personnes dans 200 pays, de vérifier que leur travail est précis, authentique et impartial, et de traduire tout jargon académique dans un langage accessible et digeste pour les modèles d’IA.
" Personne n’aime s’occuper des opérations humaines ", a déclaré Olga Megorskaya, PDG de Toloka, à Forbes. " Tout le monde aime construire des modèles d’IA et des entreprises. Mais traiter avec de vrais humains n’est pas une compétence très répandue dans l’industrie de l’IA. "
Ce type de travail pose des problèmes de main-d’œuvre à l’échelle de l’industrie. L’année dernière, les travailleurs de Scale ont fait part à Forbes de leur faible rémunération. Les travailleurs de Toloka contactés dans le cadre de cet article ont formulé des plaintes similaires. La PDG de Toloka, Olga Megorskaya, a déclaré à Forbes qu’elle estimait que la rémunération était juste, et Scale AI a déclaré de la même manière qu’elle s’engageait à payer aux travailleurs un " salaire décent ".
Utiliser moins de données
La solution la plus évidente au problème de la pénurie de données est peut-être la plus évidente : utiliser moins de données pour commencer.
Bien qu’il y ait un besoin urgent de données d’entraînement à l’IA pour alimenter des modèles massifs, certains chercheurs estiment qu’un jour, l’IA avancée pourrait ne plus avoir besoin d’autant de données. Nestor Maslej, chercheur au Human-Centered Artificial Intelligence de l’université de Stanford, pense que l’un des vrais problèmes n’est pas la quantité, mais l’efficacité.
« Il n’est pas nécessaire de prendre une fusée pour se rendre à l’épicerie. »
Alex Ratner, PDG et cofondateur de Snorkel AI
" Si l’on y réfléchit, ces grands modèles de langage, aussi impressionnants soient-ils, voient des millions de fois plus de données qu’un seul être humain n’en verrait dans toute sa vie. Pourtant, les humains peuvent faire certaines choses que ces modèles ne peuvent pas faire ", a déclaré Nestor Maslej. " D’un certain point de vue, il est clair que le cerveau humain fonctionne à un niveau d’efficacité qui n’est pas nécessairement pris en compte par ces modèles. "
Cette percée technique n’a pas encore eu lieu, mais l’industrie de l’IA commence déjà à s’éloigner des modèles massifs. Plutôt que d’essayer de construire de grands modèles de langage capables de rivaliser avec OpenAI ou Anthropic, de nombreuses start-up spécialisées dans l’IA construisent des modèles plus petits et plus spécifiques qui nécessitent moins de données. Mistral AI, par exemple, a récemment lancé Mathstral, une IA conçue pour exceller dans les problèmes mathématiques. Même OpenAI se lance dans le jeu des mini-modèles avec le lancement de GPT-4o mini.
" Nous assistons à une course au volume et les grands fournisseurs de modèles généralistes s’emparent de plus en plus de données et essaient des schémas pour générer de nouvelles données ", a déclaré Alex Ratner, PDG de la société d’étiquetage de données Snorkel AI. " La clé pour qu’un modèle fonctionne vraiment bien pour une tâche donnée est la qualité et la spécificité des données, et non le volume. "
Par conséquent, l’approche de Snorkel AI consiste à aider les entreprises à tirer parti des données dont elles disposent déjà et à les convertir en or pour l’entraînement à l’IA. La start-up, qui a été créée par le laboratoire d’IA de Stanford et qui est maintenant évaluée à un milliard de dollars, fournit un logiciel qui permet au personnel d’une entreprise d’étiqueter plus facilement et rapidement les données.
De cette manière, les modèles d’une entreprise sont conçus pour répondre à ses besoins réels. " Il n’est pas nécessaire de prendre une fusée pour se rendre à l’épicerie ", a déclaré Alex Ratner.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.forbes.fr/, 29 juillet 2024, Rashi Shrivastava pour Forbes US – traduit par Flora Lucas
[
LLMs
]
[
force brute
]
[
rationalisation impossible
]
[
homme-machine
]
[
superflu
]
[
gaspillage
]
physique théorique
Fascinant : des " battements d'ailes de papillons " quantiques expliqueraient notre Univers !
On savait déjà que la théorie de l'inflation en cosmologie pouvait prédire la création d'une série d'univers poches, des régions de l'espace-temps peuplant un multivers avec des lois physiques un peu différentes, mais nées à partir de fluctuations quantiques, notamment celles de l'écume de l'espace-temps en gravitation quantique. Mais une exploration plus profonde de cette théorie vient de montrer des liens avec un phénomène de la théorie du chaos bien connu en météorologie : l'effet papillon. Cet effet déterminerait le destin et la naissance du multivers de l'inflation, contenant le nôtre.
Dès le XIXe siècle, les développements de la physique mathématique avaient montré que bien que la gravitation, la chaleur et le magnétisme ou encore la mécanique des fluides soient des phénomènes physique différents, un certain nombre d'équations mathématiques leur était en commun que, dans leur jargon, les physiciens appellent des équations aux dérivées partielles du potentiel, de la diffusion et des ondes pour nommer les principales. On pouvait donc s'inspirer d'un problème de calcul du champ de gravitation pour résoudre un problème d'écoulement d'air autour d'une aile d'avion par exemple.
Ces analogies sont valables pour d'autres équations, ce qui permet aux physiciens, comme l'expliquait Richard Feynman dans son célèbre cours, de maîtriser plusieurs éléments de théories physiques différentes en les ramenant à quelques problèmes de physique mathématique canoniques et donc de ne pas capituler devant un océan de savoirs grandissant. Il y a tout de même des limites et les derniers physiciens universels, ou peu s'en faut, étaient sans doute Enrico Fermi et Lev Landau, il y a plus de 60 ans.
Tout ceci s'applique aussi bien à l'astrophysique que la géophysique. Les chercheurs y sont confrontés à des questions et des phénomènes similaires relevant notamment de ce qu'on appelle la nécessité d'avoir des méthodes non perturbatives pour des phénomènes non linéaires et de tenir compte de la sensibilité de certaines équations aux conditions initiales, comme le disent là encore les scientifiques dans leur jargon.
Prenons quelques exemples simples. Lorsque l'on considère des vagues faibles à la surface de l'eau ou des écoulements d'air lents autour d'une aile d'avion, on peut considérer des équations d'ondes linéaires, ce qui veut dire qu'une combinaison de deux solutions de ces équations linéaires est encore une solution simplement en faisant une addition. Souvent d'ailleurs, il suffit de combiner des sommes de fonctions sinus et cosinus simples, par exemple.
Mais quand la surface de l'eau est agitée lors d'une tempête, les équations que l'on doit utiliser, par exemple pour expliquer l'existence des vagues scélérates, ne sont plus linéaires. Pour les résoudre, il faut utiliser de nouvelles méthodes mathématiques que l'on appelle donc " non perturbatives " ou s'en remettre à des simulations numériques avec de puissants ordinateurs.
Or, avec les équations non linéaires, il peut apparaître des phénomènes dits chaotiques qui montrent la fameuse sensibilité aux conditions initiales. On parle souvent de ce phénomène en termes d'effet papillon.
(vidéo : Les prévisions météorologiques s’améliorent constamment mais, malgré les progrès considérables de la science et de la technologie, il reste une limite à la prévision de l’avenir. Cette limite est due à la théorie du chaos, l'idée selon laquelle le battement d'ailes d'un papillon au Brésil pourrait provoquer une tornade au Texas. Bien que cela puisse paraître légèrement exagéré, la théorie du chaos peut avoir un impact puissant sur les prévisions météorologiques, mais les météorologues disposent de moyens permettant d'atténuer ses impacts et d'améliorer les prévisions.)
Un Univers chaotique, du Big Bang à la météorologie
On s'est rendu compte avec la théorie du chaos et des simulations sur ordinateurs qu'une erreur, aussi faible que les perturbations d'un vol de papillon sur la densité et la vitesse de l'air locales de l'endroit où vole le papillon, allait conduire la météorologie à bifurquer rapidement dans le futur au point que la présence ou l'absence de ce vol de papillon pouvait faire la différence entre l'existence ou non d'un cyclone à une date donnée. Comme nous ne pouvons pas connaître avec une précision pareille l'état de l'atmosphère partout sur la Planète, nécessairement toute prédiction météorologique est destinée à n'avoir qu'une valeur très limitée dans le temps.
Il se trouve que depuis des décennies on peut comparer le comportement de l'espace-temps décrit par les équations non linéaires de la relativité générale avec le comportement des fluides décrits par les équations non linéaires de Navier-Stokes, de sorte que l'on parle par exemple d'écume quantique de l'espace-temps et que l'on peut faire intervenir la théorie du chaos et l'équivalent de la turbulence des fluides pour l'espace-temps en cosmologie.
Le modèle cosmologique standard fait aussi implicitement la supposition qu'il est bien complété par une théorie qui n'est pas encore démontrée, mais qui est bien corroborée par les observations du fameux rayonnement fossile ainsi que certaines caractéristiques de la structure à grande échelle des distributions de galaxie. Il s'agit de la théorie de l'inflation qui suppose que très tôt dans l'histoire du cosmos observable, il a existé une phase exponentiellement rapide d'expansion, mais très courte et transitoire de l'espace.(video : Rejoignez Katie Mack, titulaire de la chaire Hawking en cosmologie et communication scientifique de l'Institut Perimeter, dans un incroyable voyage à travers le cosmos dans notre nouvelle série, Cosmology 101. Dans cet épisode, nous apprenons comment la détection du fond diffus cosmologique (CMB) a validé la théorie du Big Bang et conduit au développement du concept d'inflation cosmique. Explorez les défis et les débats en cours en cosmologie alors que les scientifiques cherchent à découvrir la véritable nature de l'Univers primitif et les origines de la structure cosmique. )
Un zoo de théories inflationnaires possibles
La théorie de l'inflation se décline en plusieurs versions possibles qui ont été proposées au cours du temps comme celles de deux astrophysiciens russes Alexei Starobinski et Andrei Linde, ce dernier ayant proposé la théorie chaotique de l'inflation qui conduit naturellement à la notion d'inflation éternelle dont Futura avait parlé avec Max Tegmark. Comme le montre bien Andrei Linde dans un ouvrage en accès libre, les spéculations en physique des particules au-delà du modèle standard de la physique des hautes énergies rendent l'existence d'une phase d'inflation presque inévitable et dans l'Univers primordial elle s'accompagne de fluctuations/oscillations quantiques ayant laissé des traces dans le rayonnement fossile et à l'origine de la matière. Très souvent, on postule pour cela l'existence d'un nouveau champ scalaire cousin de celui du fameux boson de Brout-Englert-Higgs et que l'on appelle l'inflaton. Il n'est pas facile cependant de déduire des champs d'inflatons possibles l'existence et l'état du cosmos observable actuel. Dans certains cas, l'inflation n'est pas assez puissante et dans d'autres, l'Univers se recontracte très rapidement au cours du Big Bang.
Là aussi se pose la question de savoir si l'on doit utiliser une approche perturbative ou non perturbative des modèles possibles d'inflation et c'est cette question qui a été examinée en utilisant des simulations numériques par une équipe de chercheurs, des membres du CNRS à l'Institut d'astrophysique de Paris (dont le médaillé de bronze du CNRS 2024 Sébastien Renaux-Petel) et de l'université Johns-Hopkins (États-Unis), comme on peut le voir dans une publication en accès libre sur arXiv.
Une prédiction de la théorie des supercordes ?
Comme l'explique un communiqué du CNRS, les astrophysiciens ont découvert que les petites fluctuations quantiques dont on savait que les effets pouvaient être amplifiés par une phase d'inflation devaient l'être également par des phénomènes non linéaires de la théorie inflationnaire, dont on ne connaissait pas l'importance auparavant. Remarquablement, ils émergent dans un modèle de champ d'inflatons avec des oscillations et que l'on peut déduire de la théorie des supercordes.
Tout comme dans le cas de l'effet papillon en météorologie, plusieurs évolutions divergentes de l'état initial du cosmos au début du Big Bang seraient alors possibles et peut-être réalisées dans un multivers. En tout état de cause, cela ouvre de nouvelles perspectives quant aux prédictions possibles des Univers qui peuvent émerger d'effets chaotiques dans la physique de la phase inflationnaire, en supposant qu'elle ait existé.
L'article, aujourd'hui publié dans les célèbres Physical Review Letters, explique ainsi : " Nous démontrons que de minuscules fluctuations quantiques à petite échelle, amplifiées par la caractéristique oscillatoire, peuvent considérablement affecter le destin de l'Univers tout entier, empêchant parfois l'inflation de se terminer. Cet " effet papillon inflationniste " révèle la nécessité d'un traitement non perturbatif dans le régime pertinent pour les observations. Cela marque le début d'une nouvelle ère dans l'exploration des premières époques de l'Univers, rappelant à certains égards les simulations pionnières de phénomènes chaotiques. "
Le communiqué du CNRS ajoute que les chercheurs " ont montré que dans certaines théories, l'Univers entier peut être piégé dans un état d'inflation éternelle, inhospitalier à la vie. Dans d'autres cas, les fluctuations quantiques peuvent déclencher la formation de trous noirs à partir de l'effondrement de poches d'univers. Ces trous noirs ne sont pas des vestiges stellaires typiques : à l'intérieur ne se trouve pas le cœur effondré d'une étoile, mais un univers parallèle tout entier ! Ces travaux marquent une percée dans l'étude de l'Univers primordial à l'aide de méthodes non perturbatives, à l'interface entre la cosmologie, la théorie du chaos et les sciences computationnelles ".
Remarquablement, il est possible que les ondes gravitationnelles associées à ces nouveaux effets soient accessibles aux programmes de détection comme ceux utilisant des pulsars.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.futura-sciences.com, Laurent Sacco, le 24 octobre 2024
[
interconnections
]
[
interdépendance
]
[
dominos
]
[
boule de neige
]
perception humaine
Les schémas mathématiques secrets révélés par la musique de Bach
Le compositeur baroque allemand Jean Sébastien Bach a produit une musique si bien structurée qu'elle est souvent comparée aux maths. Bien que peu d'entre nous soient émotionnellement affectés par les mathématiques, les œuvres de Bach - et la musique en général - nous émeuvent. C'est plus que du son ; c'est un message. Désormais, grâce aux outils de la théorie de l'information, les chercheurs commencent à comprendre comment la musique de Bach fait passer ce message.
En faisant de ses partitions de simples réseaux de points, appelés nœuds, reliés par des lignes, nommeés bords, les scientifiques ont quantifié les informations véhiculées par des centaines de compositions de Bach. Analyse de ces réseaux musicaux publiée le 2 février dans Physical Review Research qui révèle que les nombreux styles musicaux de Bach, tels que les chorales et les toccatas, différaient considérablement dans la quantité d'informations qu'ils communiquaient - et que certains réseaux musicaux contenaient des structures qui pouvaient faciliter la compréhension de leurs messages par les auditeurs humains.
" Je trouve cette idée vraiment cool ", explique le physicien Suman Kulkarni de l’Université de Pennsylvanie, auteur principal de la nouvelle étude. " Nous avons utilisé des outils de la physique sans faire d’hypothèses sur les pièces musicales, en commençant par cette simple représentation et en voyant ce qui peut nous dire sur les informations qui sont transmises. "
Les chercheurs ont quantifié le contenu de toute cette information, des séquences simples aux réseaux enchevêtrés, utilisant le concept d'entropie de l'information, introduit par le mathématicien Claude Shannon en 1948.
Comme son nom l'indique, l'entropie de l'information est mathématiquement et conceptuellement liée à l'entropie thermodynamique. Elle peut être considérée comme une mesure du degré de surprise d'un message - "message" qui peut être tout ce qui transmet des informations, d'une séquence de nombres à un morceau de musique. Cette perspective peut sembler contre-intuitive, étant donné que, dans le langage courant, l'information est souvent assimilée à la certitude. Mais l'idée clé de l'entropie de l'information est qu'apprendre quelque chose que l'on sait déjà n'est pas apprendre du tout.
Une conversation avec une personne qui ne sait exprimer qu'une chose, comme le personnage Hodor dans la série télévisée Game of Thrones, qui dit seulement " Hodor ", sera prévisible mais pas informationelle. Une discussion avec Pikachu sera un peu meilleure ; le Pokémon ne peut dire que les syllabes de son nom, mais il peut les réarranger, contrairement à Hodor. De même, une pièce de musique ne comportant qu'une seule note sera relativement facile à "apprendre" par le cerveau, c'est-à-dire à reproduire avec précision sous la forme d'un modèle mental, mais le morceau aura du mal à faire passer un quelconque message. Regarder un jeu de pile ou face avec une pièce à deux têtes ne donnera aucune information.
Bien sûr, envoyer un message plein d'informations n'est pas très bon si le quelque chose - ou qui que ce soit - qui le reçoit ne peut comprendre avec précision ces informations. Et quand il s'agit de messages musicaux, les chercheurs travaillent encore sur la façon dont nous apprenons ce que la musique essaie de nous dire.
" Il existe quelques théories différentes ", explique le cognitiviste Marcus Pearce de l’université Queen Mary de Londres, qui n’a pas participé à la récente étude de la recherche sur l’évaluation physique. " La principale, je pense, en ce moment, est basée sur l’apprentissage probabiliste. Dans ce cadre, "apprendre" la musique signifie construire des représentations mentales précises des sons réels que nous entendons - ce que les chercheurs appellent un modèle - par un jeu d'anticipation et de surprise. Nos modèles mentaux prédisent la probabilité qu'un son donné vienne ensuite, sur la base de ce qui a précédé. Ensuite, explique M. Pearce, " on découvre si la prédiction était juste ou fausse, et on peut alors mettre à jour son modèle en conséquence".
Kulkarni et ses collègues sont physiciens, pas musiciens. Ils voulaient utiliser les outils de la théorie de l'information pour explorer la musique à la recherche de structures d'information qui pourraient avoir quelque chose à voir avec la façon dont les humains glanent un sens de la mélodie.
Ainsi Kulkarni a transformé 337 compositions de Bach en bandes de nœuds interconnectés et calculé l'entropie de l'information des réseaux qui en résultent. Dans ces réseaux, chaque note de la partition d'origine est un noeud, et chaque transition entre notes est un pont. Par example, si une pièce inclut une note Mi suivie d'un Do et d'un Sol joués ensemble, le noeud représentant E sera relié aux noeuds représentant Do et Sol.
Les réseaux de ce notation transitions dans la musique de Bach ont générés plus de poinçon d'information que des réseaux de même taille générés aléatoirement - le résultat d'une plus grande variation dans les degrés nodaux des réseaux, c'est-à-dire le nombre d'arêtes connectées à chaque nœud. En outre, les scientifiques ont découvert des variations dans la structure de l'information et le contenu des nombreux styles de composition de Bach. Les chorals, hymnes destinés à être chanté, ont donné lieu à des réseaux relativement pauvres en informations, bien que plus riches en informations que les réseaux de même taille générés de manière aléatoire. Les toccatas et les préludes, styles musicaux souvent écrits pour des instruments à clavier tels que l'orgue, le clavecin et le piano, présentant une entropie de l'information plus élevée.
" J’ai été particulièrement excité par les niveaux plus élevés de surprises dans les toccatas que dans les œuvres chorales ", explique le co-auteur de l’étude et physicien Dani Bassett de l’Université de Pennsylvanie. " Ces deux types de pièces sonnent et résonnent différement dans mes os, et ça m'a passionné de voir que cette distinction se manifeste dans l'information de composition. "
Ces structures de réseau dans les compositions de Bach pourraient également permettre aux auditeurs humains d'apprendre plus facilement certaines choses. Les humains n'apprennent pas parfaitement les réseaux. Nous avons des préjugés, dit Bassett. " Nous ignorons en quelque sorte certaines des informations locales au profit de la vue d’une image plus grande de l’information sur l’ensemble du système ", ajoute-t-ils. En modélisant ce biais dans la façon dont nous construisons nos modèles mentaux de réseaux complexes, les chercheurs ont comparé l'ensemble des informations de chaque réseau musical à la quantité d'informations qu'un auditeur humain en tirerait.
Des réseaux musicaux contenaient des groupes de transitions de notes pourraient aider nos cerveaux biaisés " apprendre " la musique - à reproduire la structure informationnelle de la musique avec précision en tant que modèle mental - sans sacrifier beaucoup d'informations.
" La façon dont elles saisissent l’aptitude à l’apprentissage est assez intéressante ", déclare Peter Harrison de l’Université de Cambridge, qui n’a pas participé à l’étude. " C'est très réducteur dans un certain sens. Mais c'est tout à fait complémentaire avec d'autres théories que nous connaissons, et l'aptitude à apprendre est assez difficile à maîtriser ".
Ce type d'analyse de réseau n'est pas particulier à Bach et il pourrait fonctionner pour n'importe quel compositeur. Pearce dit qu'il sera intéressant d'utiliser cette approche pour comparer différents compositeurs ou rechercher des tendances informatives à travers l'histoire de la musique. Pour sa part, Kulkarni est excité à l'idée d'analyser les propriétés d'information de partitions d'au-delà de la tradition musicale occidentale.
La musique n'est pas seulement une séquence de notes, note cependant Harrison. Le rythme, le volume, le timbre des instruments, ces éléments sont des aspects importants des messages musicaux qui n'ont pas été pris en compte dans cette étude. Kulkarni dit qu'il sera intéressé par l'inclusion de ces aspects de la musique dans ses réseaux. Le processus pourrait également fonctionner dans l'autre sens, ajoute M. Harrison : plutôt que réduire les caractéristiques musicales à un réseau, il sera intéressant de savoir comment les caractéristiques du réseau se traduisent par des éléments qu'un musicien reconnaîtrait.
Un musicien dira : " Quelles sont les règles musicales réelles, ou les caractéristiques musicales, qui en sont à l’origine ? Puis-je l’entendre sur un piano ? " précise Harrison.
Enfin, on ne sait pas encore exactement comment les modèles de réseaux identifiés dans la nouvelle étude se traduisent dans l'expérience vécue à l'écoute d'un morceau de Bach - ou de n'importe quelle musique, précise M. Pearce. La résolution de ce problème relèvera de la psychologie musicale, poursuit-il. Des expériences pourraient révéler "si, de fait, ce genre de choses est perceptible par les gens et quels sont leurs effets sur le plaisir que les gens éprouvent lorsqu'ils écoutent de la musique". De même Harrison se dit intéressé par des expériences visant à vérifier si les types d'erreurs d'apprentissage en réseau que les chercheurs ont modélisés dans cette étude sont réellement importants pour l'apprentissage de la musique.
"Le fait que les humains présentent ce type de perception imparfaite et biaisée de systèmes informationnels complexes est essentiel pour comprendre comment nous nous impliquons dans la musique", explique M. Bassett. "Comprendre la complexité informationnelle des compositions de Bach ouvre de nouvelles questions sur les processus cognitifs qui sous-tendent la manière dont nous apprécions les différents types de musique."
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.scientificamerican.com, 16 féb 2024. Elise Cutts - Secret Mathematical Patterns Revealed in Bach's Music
[
sentiment naturel
]
[
approfondissement découverte
]
[
dépaysement plaisir
]
[
cybernétisation
]
[
simple compliqué
]
[
occulte harmonie
]
machine-homme
Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.
Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.
Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.
Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.
L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".
La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.
Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.
Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.
Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées - astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.
Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.
L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.
Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.
En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.
L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"
En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.
Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.
Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.
Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.
À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.
Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.
Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.
"Tirer parti de cela aura un impact sur de nombreux domaines".
Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture. (Note du traducteur).
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg
[
censure numérique
]
[
triage web
]
[
citation s'appliquant à ce logiciel
]
mimétisme
La surexposition a déformé la science des neurones miroirs
Après une décennie passée à l’écart des projecteurs, les cellules cérébrales autrefois censées expliquer l’empathie, l’autisme et la théorie de l’esprit sont en train d’être affinées et redéfinies.
Au cours de l'été 1991, le neuroscientifique Vittorio Gallese étudiait la représentation du mouvement dans le cerveau lorsqu'il remarqua quelque chose d'étrange. Lui et son conseiller de recherche, Giacomo Rizzolatti, de l'Université de Parme, suivaient les neurones qui devenaient actifs lorsque les singes interagissaient avec certains objets. Comme les scientifiques l'avaient déjà observé, les mêmes neurones se déclenchaient lorsque les singes remarquaient les objets ou les ramassaient.
Mais ensuite, les neurones ont fait quelque chose auquel les chercheurs ne s'attendaient pas. Avant le début officiel de l'expérience, Gallese a saisi les objets pour les montrer à un singe. À ce moment-là, l’activité a augmenté dans les mêmes neurones qui s’étaient déclenchés lorsque le singe avait saisi les objets. C’était la première fois que quelqu’un observait des neurones coder des informations à la fois pour une action et pour un autre individu effectuant cette action.
Ces neurones firent penser à un miroir aux chercheurs : les actions observées par les singes se reflétaient dans leur cerveau à travers ces cellules motrices particulières. En 1992, Gallese et Rizzolatti ont décrit pour la première fois ces cellules dans la revue Experimental Brain Research , puis en 1996 les ont nommées " neurones miroirs " dans Brain.
Les chercheurs savaient qu’ils avaient trouvé quelque chose d’intéressant, mais rien n’aurait pu les préparer à la réaction du reste du monde. Dix ans après la découverte, l’idée d’un neurone miroir était devenue un des rare concept neuroscientifique capable de captiver l’imagination du public. De 2002 à 2009, des scientifiques de toutes disciplines se sont joints aux vulgarisateurs scientifiques pour faire sensation sur ces cellules, leur attribuant davantage de propriétés permettant d'expliquer des comportements humains aussi complexes que l'empathie, l'altruisme, l'apprentissage, l'imitation, l'autisme et la parole.
Puis, presque aussi rapidement que les neurones miroirs ont émergé les doutes scientifiques quant à leur pouvoir explicatif. En quelques années, ces cellules de célébrités ont été classées dans le tiroir des découvertes prometteuses pas à la hauteur des espérances.
Pourtant, les résultats expérimentaux originaux sont toujours valables. Les neurones du cortex prémoteur et des zones cérébrales associées reflètent des comportements. Même s'ils n'expliquent pas facilement de vastes catégories de l'expérience humaine, les neurones miroirs " sont vivants et actifs ", a déclaré Gallese.
Aujourd'hui, une nouvelle génération de neuroscientifiques sociaux relance les travaux pour étudier comment les neurones dotés de propriétés miroir dans tout le cerveau codent le comportement social.
L'ascension et la chute
Les neurones miroirs ont d'abord fasciné par le fait qu'ils n'étaient pas du tout à leur place. Dans une zone du cerveau dédiée à la planification motrice, on trouvait des cellules aux propriétés uniques qui réagissaient pendant la perception. En outre, les chercheurs de Parme ont interprété leurs résultats comme une preuve de ce que l'on appelle la "compréhension de l'action" dans le cerveau : Ils affirmaient que les singes pouvaient comprendre ce que faisait un autre individu et que cette intuition était résolue dans une seule cellule.
Le neurone miroir était donc un " moyen immédiatement accessible pour expliquer un mécanisme bien plus complexe ", a déclaré Luca Bonini, professeur de psychobiologie à l'Université de Parme qui n'a pas participé à l'étude originale. Galvanisés par cette interprétation, les chercheurs ont commencé à projeter leur " compréhension " sur un nombre illimité de cellules qui semblaient semblables à des miroirs.
Cette fanfare enthousiaste faussa l’étude des neurones miroirs et perturba la carrière des chercheurs.
Au début des années 2000, le spécialiste des sciences cognitives Gregory Hickok de l'Université de Californie à Irvine a découvert que les neurones des zones motrices du cerveau liées à la production de la parole devenaient actifs lorsque les participants écoutaient la parole. Bien que cette découverte ne soit pas choquante – " c’est exactement ainsi que fonctionne le système ", déclara Hickok – d’autres scientifiques ont commencé à visualiser ses résultats sous l'angle des neurones miroir. Il savait que cette théorie ne pouvait pas s'appliquer à son travail. D’autres encore ont suggéré que lorsque les auditeurs percevaient la parole, les neurones du cortex moteur " reflétaient " ce qu’ils entendaient.
(Photo : Gregory Hickok étudie les circuits neurologiques impliqués dans la parole. Ses doutes sur la théorie des neurones miroirs l'ont amené à devenir l'adversaire scientifique de Vittorio Gallese et lui ont valu un contrat pour le livre Le Mythe des neurones miroirs – " dont le titre n'était vraiment pas juste ", selon Gallese.)
Pour bien se positionner, Hickok commença par dire au début de ses exposés de recherche que son travail n'avait rien à voir avec les neurones miroirs – un choix qui le plaça par inadvertance au centre du débat. En 2009, le rédacteur en chef du Journal of Cognitive Neuroscience invita Hickok à rédiger une critique de cette théorie. Il utilisa la parole comme test pour réfuter l'affirmation grandiose selon laquelle les neurones miroirs du cortex moteur permettaient à un singe de comprendre les actions d'un autre. Si, selon Hickok, il existe un mécanisme neuronal unique qui code la production d’une action et la compréhension de cette action, alors les dommages causés à ce mécanisme devraient empêcher les deux de se produire. Hickok a rassemblé un dossier d'études montrant que les dommages causés aux zones de production de la parole ne perturbaient pas la compréhension de la parole. Les données, écrit-il, " démontrent sans équivoque que la théorie des neurones miroirs sur la perception de la parole est incorrecte, quelle que soit sa présentation ».
Critique qui conduisit à un livre puis en 2015, à une invitation à débattre publiquement avec Gallese au Centre pour l'esprit, le cerveau et la conscience de l'Université de New York. Partageant la scène pour la première fois, les deux scientifiques distingués échangèrent des points de vue concurrents avec quelques légères taquineries, suivies de sourires autour de quelques bières.
Si cette confrontation s'est déroulée à l'amiable, il n'en fut pas de même des réactions à l'engouement pour les neurones miroirs. Aujourd’hui, Gallese reste surpris par " l’acrimonie " à laquelle il fut confronté au sein de la communauté scientifique. " Je ne pense pas que quiconque ait été scruté aussi profondément que nous ", dit-il. Et l’effet sur l’étude de ces cellules cérébrales fut profond. Dans les années qui ont suivi le débat à New York, les neurones miroirs disparurent du discours scientifique. En 2013, au plus fort du battage médiatique, les scientifiques ont publié plus de 300 articles portant le titre " neurone miroir ". En 2020, ce nombre avait diminué de moitié, pour atteindre moins de 150.
Le neurone miroir, redéfini
Cet épisode est représentatif de la manière dont l'enthousiasme suscité par certaines idées peut transformer le cours de leurs recherches. Gallese a attribué le déclin des études sur les neurones miroirs à la peur collective et à l'autocensure. " Les chercheurs craignent que s'ils évoquent l'étiquette neurones miroirs, l'article pourrait être rejeté ", a-t-il déclaré.
En conséquence, les chercheurs ont adopté une terminologie différente – " réseau d’activation d’action ", par exemple – pour expliquer les mécanismes miroirs dans le cerveau. Le terme " neurone miroir " est également devenu obscur. Au début, sa définition était claire : c'était une cellule motrice qui tirait lors d'un mouvement et également lors de la perception d'un mouvement identique ou similaire. Cependant, à mesure que les chercheurs utilisaient ce terme pour expliquer les phénomènes sociaux, la définition devenait lourde au point de devenir une " théorie invérifiable ", a déclaré Hickok.
Aujourd’hui, après une période de réflexion, les neuroscientifiques sociaux extraient les cellules de la boue biologique. En regardant au-delà des zones motrices du cerveau, ils découvrent ce qui ressemble étrangement à des neurones miroirs. L'année dernière, une équipe de l'Université de Stanford a rapporté dans Cell la découverte de neurones qui reflètent l'agressivité chez la souris. Cette suite de cellules se déclenchait à la fois lorsqu’une souris se comportait de manière agressive et lorsqu’elle regardait les autres se battre. Parce que les cellules sont devenues actives dans les deux contextes, les chercheurs ont suggéré qu’elles seraient des neurones miroirs.
"C'était le premier exemple démontrant l'existence de neurones miroirs associés à un comportement social complexe", a déclaré Emily Wu, professeur adjoint de neurologie à l'Université de Californie à Los Angeles, qui n'a pas participé à la recherche.
Cette découverte s’ajoute à un nombre croissant de preuves selon lesquelles les neurones situés au-delà du cortex prémoteur ont des propriétés miroir lorsque deux animaux interagissent socialement. Ces mêmes cellules se déclenchent lors d’actions ou d’émotions personnelles et en réponse au fait de voir d’autres vivre les mêmes expériences.
Techniquement, selon la définition originale, ces cellules ne sont pas des neurones miroirs, a déclaré Hickok : Les neurones miroirs sont des cellules motrices, pas des cellules sociales. Cependant, Wu ne se soucie pas des définitions. Plutôt que débattre de ce qui est ou non un neurone miroir, elle pense qu'il est plus important de cataloguer les propriétés fonctionnelles du miroir qui caractérisent les cellules, où qu'elles se trouvent dans le cerveau.
L’objectif serait de décrire l’étendue de ces neurones et comment, au niveau électrophysiologique, ils se comportent de manière unique. Ce faisant, ces scientifiques dissipent le nuage de battage médiatique autour de la vision de ces cellules telles qu’elles sont réellement.
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.quantamagazine.org/ - Meghan Willcoxon, 2 avril 2024
[
pulsions partagées
]
[
actions symboles
]
exobiologie
Les doutes grandissent quant à l’approche biosignature de la chasse aux extraterrestres
Les controverses récentes sont de mauvais augure pour les efforts visant à détecter la vie sur d’autres planètes en analysant les gaz présents dans leur atmosphère.
En 2020, des scientifiques ont détecté un gaz appelé phosphine dans l’atmosphère d’une planète rocheuse de la taille de la Terre. Sachant qu'il est impossible de produire de la phosphine autrement que par des processus biologiques, "les scientifiques affirment que quelque chose de vivant est la seule explication de l'origine de ce produit chimique", a rapporté le New York Times . En ce qui concerne les " gaz biosignatures ", la phosphine semblait être un coup de circuit.
Jusqu'à ce que ce ne soit plus le cas.
La planète était Vénus, et l’affirmation concernant une potentielle biosignature dans le ciel vénusien est toujours embourbée dans la controverse, même des années plus tard. Les scientifiques ne peuvent pas s'entendre sur la présence de phosphine là-bas, et encore moins sur la question de savoir si cela constituerait une preuve solide de l'existence d'une biosphère extraterrestre sur notre planète jumelle.
Ce qui s’est avéré difficile pour Vénus ne le sera que pour les exoplanètes situées à plusieurs années-lumière.
Le télescope spatial James Webb (JWST) de la NASA, lancé en 2021, a déjà renvoyé des données sur la composition atmosphérique d'une exoplanète de taille moyenne baptisée K2-18 b que certains ont interprétée – de manière controversée – comme une preuve possible de la vie. Mais alors même que les espoirs de détection de biosignature montent en flèche, certains scientifiques commencent à se demander ouvertement si les gaz présents dans l’atmosphère d’une exoplanète constitueront un jour une preuve convaincante de l’existence d’extraterrestres.
De nombreux articles récents explorent les redoutables incertitudes liées à la détection de la biosignature des exoplanètes. L'un des principaux défis qu'ils identifient est ce que le philosophe des sciences Peter Vickers de l'Université de Durham appelle le problème des alternatives non conçues . En termes simples, comment les scientifiques peuvent-ils être sûrs d’avoir exclu toute explication non biologique possible de la présence d’un gaz – surtout tant que la géologie et la chimie des exoplanètes restent presque aussi mystérieuses que la vie extraterrestre ?
"De nouvelles idées sont constamment explorées, et il pourrait y avoir un mécanisme abiotique pour ce phénomène qui n'a tout simplement pas encore été conçu", a déclaré Vickers. "C'est le problème des alternatives inconçues en astrobiologie."
"C'est un peu l'éléphant dans la pièce", a déclaré l'astronome Daniel Angerhausen de l'École polytechnique fédérale de Zurich, qui est un scientifique du projet sur la mission LIFE, un télescope spatial proposé qui rechercherait des gaz de biosignature sur des planètes semblables à la Terre. exoplanètes.
Si ou quand les scientifiques détectent un gaz de biosignature putatif sur une planète lointaine, ils peuvent utiliser une formule appelée théorème de Bayes pour calculer les chances de vie là-bas sur la base de trois probabilités. Deux d’entre eux concernent la biologie. La première est la probabilité que la vie apparaisse sur cette planète, compte tenu de tout ce que l’on sait d’elle. La seconde est la probabilité que, si la vie existait, elle créerait la biosignature que nous observons. Les deux facteurs comportent d'importantes incertitudes, selon les astrobiologistes Cole Mathis de l'Arizona State University et Harrison Smith de l'Institut des sciences de la Terre et de la vie de l'Institut de technologie de Tokyo, qui ont exploré ce type de raisonnement dans un article l'automne dernier.
Le troisième facteur est la probabilité qu'une planète sans vie produise le signal observé – un défi tout aussi sérieux, réalisent maintenant les chercheurs, qui est mêlé au problème des alternatives abiotiques inconçues.
"C'est la probabilité que nous disons que vous ne pouvez pas remplir vos fonctions de manière responsable", a déclaré Vickers. "Cela pourrait presque aller de zéro à 1."
Prenons le cas de K2-18 b, une " mini-Neptune " de taille intermédiaire entre la Terre et Neptune. En 2023, les données du JWST ont révélé un signe statistiquement faible de sulfure de diméthyle (DMS) dans son atmosphère. Sur Terre, le DMS est produit par des organismes marins. Les chercheurs qui l’ont provisoirement détecté sur K2-18b ont interprété les autres gaz découverts dans son ciel comme signifiant que la planète est un " monde aquatique " avec un océan de surface habitable, confortant ainsi leur théorie selon laquelle le DMS proviendrait de la vie marine. Mais d'autres scientifiques interprètent les mêmes observations comme la preuve d'une composition planétaire gazeuse et inhospitalière ressemblant davantage à celle de Neptune.
Des alternatives inconcevables ont déjà contraint les astrobiologistes à plusieurs reprises à réviser leurs idées sur ce qui constitue une bonne biosignature. Lorsque la phosphine a été détectée sur Vénus , les scientifiques ne connaissaient aucun moyen de la produire sur un monde rocheux sans vie. Depuis lors, ils ont identifié plusieurs sources abiotiques possibles de gaz . Un scénario est que les volcans libèrent des composés chimiques appelés phosphures, qui pourraient réagir avec le dioxyde de soufre présent dans l'atmosphère de Vénus pour former de la phosphine – une explication plausible étant donné que les scientifiques ont trouvé des preuves d'un volcanisme actif sur notre planète jumelle. De même, l'oxygène était considéré comme un gaz biosignature jusqu'aux années 2010, lorsque des chercheurs, dont Victoria Meadows du laboratoire planétaire virtuel de l'Institut d'astrobiologie de la NASA, ont commencé à trouver des moyens permettant aux planètes rocheuses d' accumuler de l'oxygène sans biosphère. Par exemple, l’oxygène peut se former à partir du dioxyde de soufre, qui abonde sur des mondes aussi divers que Vénus et Europe.
Aujourd’hui, les astrobiologistes ont largement abandonné l’idée selon laquelle un seul gaz pourrait constituer une biosignature. Au lieu de cela, ils se concentrent sur l’identification d’« ensembles », ou d’ensembles de gaz qui ne pourraient pas coexister sans vie. Si quelque chose peut être appelé la biosignature de référence actuelle, c’est bien la combinaison de l’oxygène et du méthane. Le méthane se dégrade rapidement dans les atmosphères riches en oxygène. Sur Terre, les deux gaz ne coexistent que parce que la biosphère les reconstitue continuellement.
Jusqu’à présent, les scientifiques n’ont pas réussi à trouver une explication abiotique aux biosignatures oxygène-méthane. Mais Vickers, Smith et Mathis doutent que cette paire particulière – ou peut-être n’importe quel mélange de gaz – soit un jour convaincante. "Il n'y a aucun moyen d'être certain que ce que nous observons est réellement une conséquence de la vie, par opposition à un processus géochimique inconnu", a déclaré Smith.
" JWST n'est pas un détecteur de vie. C'est un télescope qui peut nous dire quels gaz se trouvent dans l'atmosphère d'une planète ", a déclaré Mathis.
Sarah Rugheimer, astrobiologiste à l'Université York qui étudie les atmosphères des exoplanètes, est plus optimiste. Elle étudie activement d’autres explications abiotiques pour les biosignatures d’ensemble comme l’oxygène et le méthane. Pourtant, dit-elle, " j’ouvrirais une bouteille de champagne – du champagne très cher – si nous voyions de l’oxygène, du méthane, de l’eau et du CO 2 " sur une exoplanète.
Bien sûr, verser un verre sur un résultat passionnant en privé est différent de dire au monde qu'il a trouvé des extraterrestres.
Rugheimer et les autres chercheurs qui ont parlé à Quanta pour cette histoire se demandent comment parler au mieux en public de l'incertitude entourant les biosignatures – et ils se demandent comment les fluctuations de l'opinion astrobiologique sur une détection donnée pourraient miner la confiance du public dans la science. Ils ne sont pas seuls dans leur inquiétude. Alors que la saga de la phosphine de Vénus approchait de son apogée en 2021, les administrateurs et les scientifiques de la NASA ont imploré la communauté de l'astrobiologie d'établir des normes fermes de certitude dans la détection des biosignatures. En 2022, des centaines d'astrobiologistes se sont réunis pour un atelier virtuel pour discuter de la question – bien qu'il n'existe toujours pas de norme officielle, ni même de définition, d'une biosignature. "Pour l'instant, je suis assez heureux que nous soyons tous d'accord, tout d'abord, sur le fait que c'est un petit problème", a déclaré Angerhausen.
La recherche avance malgré l’incertitude – comme elle le devrait, dit Vickers. Se retrouver dans des impasses et devoir faire marche arrière est naturel pour un domaine naissant comme l’astrobiologie. "C'est quelque chose que les gens devraient essayer de mieux comprendre comment fonctionne la science dans son ensemble", a déclaré Smith. "C'est OK de mettre à jour ce que nous savons." Et les affirmations audacieuses sur les biosignatures ont un moyen d’allumer un feu sous la pression des scientifiques pour les falsifier, disent Smith et Vickers – pour partir à la recherche d’alternatives inconçues.
"Nous ne savons toujours pas ce qui se passe sur Vénus, et bien sûr, cela semble désespéré", a déclaré l'astrochimiste Clara Sousa-Silva du Bard College, une experte en phosphine qui a contribué à la détection de Vénus. Pour elle, la prochaine étape est claire : " Pensons à nouveau à Vénus. " Les astronomes ont pratiquement ignoré Vénus pendant des décennies. La controverse sur la biosignature a déclenché de nouveaux efforts non seulement pour découvrir des sources abiotiques de phosphine jusque-là inconsidérées, mais également pour mieux comprendre notre planète sœur à part entière. (Au moins cinq missions vers Vénus sont prévues dans les décennies à venir.) "Je pense que c'est aussi une source d'espoir pour les exoplanètes."
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
https://www.quantamagazine.org/ - Elise Cuts, 19 mars 2024
[
xénobiologie
]
strates biologiques
Les chemins aléatoires de l'évolution mènent à un même endroit
Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.
(Photo : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)
Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?
De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.
Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.
Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.
"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important".
La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.
"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."
Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.
Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.
Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."
Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique plus prévisible, et pas moins prévisible", a déclaré M. Desai.
Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.
Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.
Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.
Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "
Auteur:
Internet
Années: 1985 -
Epoque – Courant religieux: Récent et libéralisme économique
Sexe: R
Profession et précisions: tous
Continent – Pays: Tous
Info:
Quanta Magazine, Emily Singer, September 11, 2014
[
bio-mathématiques
]
[
individu-collectif
]
[
équilibre grégaire
]
[
compensation mutationnelle
]