Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 161
Temps de recherche: 0.0756s

femmes-hommes

L'esprit pourrait affecter les machines selon les sexes
Pendant 26 ans, des conversations étranges ont eu lieu dans un laboratoire du sous-sol de l'université de Princeton. On utilise des ordinateurs au rendement aléatoire et les expériences font se concentrer des participants sur le contrôle d'une ou de plusieurs machines. Après plusieurs million d'épreuves on peut détecter de petits signes "statistiquement significatifs" comme quoi les esprits semblent pouvoir agir sur les machines. Cependant les chercheurs font attention à ne pas annoncer que les esprits ont cet effet ou qu'ils connaissent la nature de cette communication.
Les services secrets, la défense et les agences de l'espace ont également montré de l'intérêt pour cette recherche. Le premier support que les chercheurs ont employé était un bruit aléatoire à haute fréquence. Les chercheurs ont branché des circuits au dispositif pour traduire ce bruit en code binaire. Chaque participant, après un protocole pré-enregistré, devait développer une intention dans son esprit pour faire que le générateur ait plus ou moins de zéros. Les effets furent faibles mais mesurables. Depuis les mêmes résultats se sont reproduits avec d'autres expériences, telles qu'en impliquant un pendule relié à un mécanisme commandé par ordinateur. Quand la machine libère le pendule pour qu'il se balance, les participants se concentrent sur modifier le taux avec lequel le pendule ralentit. D'autres expériences impliquent une machine à tambour que les participants essayent de commander et une machine de cascade mécanique dans laquelle un dispositif laisse tomber des milliers de petites boules noires de polystyrène, le but est que ces boules tombent dans une rangée de fentes. Les participants essayent alors de les diriger pour les faire tomber d'un côté de ou de l'autre. Au final les participants ont pu "diriger " un bit sur 10.000 issus des données mesurées dans tous les essais. Ce qui pourrait sembler petit, mais le doyen Radin, scientifique à l'institut des sciences de Noetic et ancien chercheur aux laboratoires Bell et de AT&T, dit que c'était prévisible. Radin compare l'état actuel de cette recherche avec celui où les scientifiques commencèrent à étudier l'électricité statique et ne surent pas, au début, que les niveaux d'humidité pouvaient affecter la quantité de l'électricité statique produite.
Les chercheurs ne comprennent pas grand-chose sur ce phénomène, mais ils savent que les résultats ne sont pas affectés par la distance ou le temps. Les participants, par exemple, peuvent avoir le même impact sur une machine de l'extérieur de la salle ou d'ailleurs dans le pays. Ils peuvent également avoir le même effet s'ils ont une intention avant qu'elle soit allumée ou même s'ils lisent un livre ou écoutent la musique tandis alors que la machine fonctionne. Les conditions environnementales - telles que la température ambiante - n'importent pas, mais l'humeur et l'attitude des gens qui contrôlent l'appareil oui. Cela aide, si par exemple le participant croit qu'il peut affecter la machine. Jahn dit que la résonance avec la machine est un autre facteur important. Il la compare à ce qui se produit quand un grand musicien semble faire un avec son violon. Le sexe importe aussi. Les hommes tendent à obtenir des résultats assortis à leurs intentions, bien que le degré de l'effet soit souvent petit. Les femmes tendent à obtenir un plus grand effet, mais pas nécessairement celui qu'elles prévoient. Par exemple, elles voudraient diriger des boules dans la machine aléatoire de cascade pour une chute vers la gauche, mais elles tombent plutôt vers la droite. Les résultats qui sont également plus grands si un mâle et une femelle travaillent ensemble, les couple de même sexe ne produisent aucun résultat significatif. Les couple de sexe opposé qui sont impliqué de manière romantique donnent de bien meilleurs résultats - souvent sept fois plus grands que quand les mêmes individus sont examinés seuls.
Brenda Dunne, psychologue développementaliste et directrice du laboratoire dit que dans ces cas les résultats reflètent souvent le styles des deux modèles de sexes. Les effets sont plus grands, en accord avec ce que seule la femelle tendrait à produire, et plus ciblés, en accord avec ce que seul le mâle produirait.
"C'est presque comme si il y avait deux modèles ou deux variables et qu'elles étaient complémentaires" dit Dunne." le modèle masculin est associé à l'intention, le modèle féminin est plus associé à la résonance."
Que signifie tout ceci ? Personne ne le sait. Radin et Jahn indiquent que ce n'est pas parce qu'il y a une corrélation entre l'intention du participant et les actions de la machine que cela signifie qu'un cause l'autre. " Il y a une inférence (qui les deux sont connexes) mais aucune évidence directe" dit Radin qui indique que le phénomène pourrait être semblable à l'indétermination d'Heisenberg dans lequel deux particules séparées l'une de l'autre semblent être reliées sans qu'on sache comment... sous quelle forme de communication.
"la différence est nous ne parlons pas en envoyant des signaux du cerveau à la machine par un circuit" dit Jahn au sujet de ces essais. "quoi qu'il se passe, se passe par un itinéraire que nous ne connaissons pas. Nous savons seulement quelque chose au sujet des conditions qui la favorisent.." Bien que les effets produits dans ces expériences soient faibles, ils ont toujours été répétés, cependant pas toujours de façon prévisible. Un participant peut avoir un effet un jour et répéter l'expérience le jour suivant sans résultats.
Le laboratoire a beaucoup de détracteurs qui pointent sur des défauts de la méthode et écartent ce travail le traitant de divertissement, comparant ses résultats aux automobilistes qui souhaitent qu'une lumière rouge passe au vert et pensent que le changement de lumière est causé par eux.
Stanley Jeffers, professeur de physique à l'université d'York à Toronto, a tenté des expériences semblables, mais il ne put pas répliquer les résultats. Les chercheurs de deux laboratoires allemands, fonctionnant en coopération avec Pegg, ne purent également pas répliquer ces résultats à l'aide du même équipement utilisé par Pegg.
"Si leurs annonces veulent être prises au sérieux par la science elles doivent être répliquées" dit Jeffers. "Si elles ne peuvent pas être répliquées, cela ne signifie pas qu'elles sont fausses, mais la science y perdra rapidement son intérêt."
Dunne, psychologue développementaliste dit que Pegg a répété ses propres expériences et a obtenu des résultats significatifs. Et ces méta-analyses - une douzaine - faites depuis les années 80 ont donné une base pour les résultats de Pegg dans les expériences faites par d'autres chercheurs. La Méta-analyse utilise de grands stocks de données à travers de beaucoup d'expériences et les combine statistiquement pour voir si les effets répètent la même combinaison. "Nous analysons les déviations statistiques par rapport à la chance au travers de cette batterie d'expériences" dit Jahn... "quand on fait assez de ces expériences, les effets analysés ont un poids statistique. Il n'y a aucun doute sur la validité de ces effets."
Radin, qui n'est pas affilié au Pegg, écarte les critiques qui disent que ce groupe ne pratique pas de science solide. "Ce domaine a reçu bien plus d'examen minutieux et critique que beaucoup d'autres, ordinaires... les personnes qui font ce genre de recherche sont bien conscientes du fait que leur recherche doit être faite au mieux. Le laboratoire de Pegg a pris les meilleurs principes de science rigoureuse et s'est appliqué a des questions extrêmement difficiles et a proposé quelques jolies réponses intéressantes."
Jahn pense que les critiques s'attendent à ce que les phénomènes suivent les règles habituelles de la cause et de l'effet. Au lieu de cela, il pense qu'ils appartiennent à la catégorie de ce que Karl Jung a appelé "des phénomènes acausal," qui incluent des choses comme la synchronicité. "Cela se joue par des règles plus compliquées, plus lunatiques, évasives... ... mais cela joue." dit Jahn
Jeffers est sceptique " cela ne peut se passer de deux manières - dire qu'on est des scientifiques honorables et avoir des affirmations pour un effet particulier dans des conditions contrôlées, et ensuite quand les résultats ne marchent pas, dire que les méthodes scientifiques rigoureuses ne s'appliquent pas." Mais Jahn dit que justement que puisque que les scientifiques ne peuvent pas expliquer ces phénomènes cela ne signifie pas qu'ils ne sont pas vrais. "si ces choses existent... je pense que notre société a le droit de demander à la science d'y faire attention et de fournir un certain outillage pour avoir affaire avec de manière constructive.

Auteur: Zetter Kim

Info: Juillet 2005, Fortean Times

[ mâles-femelles ] [ vus-scientifiquement ] [ parapsychologie ] [ femmes-hommes ]

 

Commentaires: 0

univers vibratoire

Les hippies avaient raison : Tout est vibrations, mec !

Pourquoi certaines choses sont-elles conscientes et d'autres apparemment pas ? Un oiseau est-il conscient ? Une batte ? Un cafard ? Une bactérie ? Un électron ?

Toutes ces questions sont autant d'aspects du récurrent problème sur l'âme et le corps, qui résiste depuis des milliers d'années à une conclusion généralement satisfaisante.

La problématique du corps et de l'esprit a fait l'objet d'un important changement de nom au cours des deux dernières décennies et est généralement reconnue aujourd'hui comme une "grande difficulté quand à la conscience", après que le philosophe David Chalmers de l'Université de New York ait travaillé sur ce concept dans un article devenu classique en 1995 et avec son ouvrage "The Conscious Mind : In Search of a Fundamental Theory", en 1996.

Posons-nous la question maintenant : Les hippies ont-ils vraiment résolu ce problème ? Mon collègue Jonathan Schooler de l'Université de Californie, Santa Barbara, et moi pensons que oui, avec cette intuition radicale qu'il s'agit bien de vibrations...

Au cours de la dernière décennie, nous avons développé une "théorie de la résonance de la conscience" qui suggère que la résonance, autrement dit les vibrations synchronisées, est au coeur non seulement de la conscience humaine mais aussi de la réalité physique en général.

Et les hippies là-dedans ? Eh bien, nous sommes d'accord que les vibrations, la résonance, représente le mécanisme clé derrière la conscience humaine, ainsi que la conscience animale plus généralement. Et, comme on le verra plus loin, c'est le mécanisme de base de toutes les interactions physiques.

Toutes les choses dans notre univers sont constamment en mouvement, vibrantes. Même les objets qui semblent stationnaires vibrent, oscillent, résonnent à différentes fréquences. La résonance est un type de mouvement, caractérisé par une oscillation entre deux états. Et en fin de compte, toute matière n'est qu'une vibration de divers domaines sous-jacents.

Un phénomène intéressant se produit lorsque différents objets/processus vibrants se rapprochent : ils commencent souvent, après un certain temps, à vibrer ensemble à la même fréquence. Ils se "synchronisent", parfois d'une manière qui peut sembler mystérieuse. C'est ce qu'on appelle aujourd'hui le phénomène d'auto-organisation spontanée. L'examen de ce phénomène conduit à une compréhension potentiellement profonde de la nature de la conscience et de l'univers en général.

TOUTES LES CHOSES RÉSONNENT À CERTAINES FRÉQUENCES

Stephen Strogatz donne divers exemples tirés de la physique, biologie, chimie et des neurosciences pour illustrer ce qu'il appelle la "synchronisation" dans son livre de 2003 également titré "Sync". Notamment :

- Les lucioles de certaines espèces se mettent à clignoter leurs petits feux en synchronisation lors de grands rassemblements de lucioles, d'une manière qui est être difficile à expliquer avec les approches traditionnelles.

- Les neurones "s'allument" à grande échelle dans le cerveau humain à des fréquences spécifiques, la conscience des mammifères étant généralement associée à divers types de synchronisation neuronale.

- Les lasers sont produits lorsque des photons de même puissance et de même fréquence sont émis ensemble.

- La rotation de la lune est exactement synchronisée avec son orbite autour de la Terre, de sorte que nous voyons toujours la même face. La résonance est un phénomène véritablement universel et au coeur de ce qui peut parfois sembler être des tendances mystérieuses vers l'auto-organisation.

Pascal Fries, neurophysiologiste allemand de l'Institut Ernst Strüngmann, a exploré dans ses travaux très cités au cours des deux dernières décennies la façon dont divers modèles électriques, en particulier les ondes gamma, thêta et bêta, travaillent ensemble dans le cerveau pour produire divers types de conscience humaine.

Ces noms font référence à la vitesse des oscillations électriques dans les différentes régions du cerveau, mesurée par des électrodes placées à l'extérieur du crâne. Les ondes gamma sont généralement définies comme étant d'environ 30 à 90 cycles par seconde (hertz), les thêta de 4 à 7 Hz et les bêta de 12,5 à 30 hz. Il ne s'agit pas de limites strictes - ce sont des règles empiriques - et elles varient quelque peu d'une espèce à l'autre.

Ainsi, thêta et bêta sont significativement plus lentes que les ondes gamma. Mais les trois travaillent ensemble pour produire, ou au moins faciliter (la relation exacte entre les schémas électriques du cerveau et la conscience est encore bien en débat), les différents types de conscience humaine.

Fries appelle son concept "communication par la cohérence" ou CTC. Pour Fries, c'est une question de synchronisation neuronale. La synchronisation, en termes de taux d'oscillation électrique partagés, permet une communication fluide entre les neurones et les groupes de neurones. Sans cohérence (synchronisation), les entrées arrivent à des phases aléatoires du cycle d'excitabilité des neurones et sont inefficaces, ou du moins beaucoup moins efficaces, pour communiquer.

Notre théorie de la résonance de la conscience s'appuie sur le travail de Fries et de beaucoup d'autres, dans une approche plus large qui peut aider à expliquer non seulement la conscience humaine et mammifère, mais aussi la conscience plus largement. Nous spéculons aussi métaphysiquement sur la nature de la conscience comme phénomène général pour toute matière.

EST-CE QUE TOUT EST AU MOINS UN PEU CONSCIENT ?

D'après le comportement observé des entités qui nous entourent, des électrons aux atomes en passant par les molécules, les bactéries, les paramécies, les souris, les chauves-souris, les rats, etc. Cela peut paraître étrange à première vue, mais le "panpsychisme" - l'idée que toute matière a une certaine conscience associée - est une position de plus en plus acceptée par rapport à la nature de la conscience.

Le panpsychiste soutient que la conscience (subjectivité) n'a pas émergé ; au contraire, elle est toujours associée à la matière, et vice versa (les deux faces d'une même médaille), mais l'esprit associé à la plupart de la matière dans notre univers est généralement très simple. Un électron ou un atome, par exemple, ne jouissent que d'une infime quantité de conscience. Mais comme la matière "se complexifie", l'esprit se complexifie, et vice versa.

Les organismes biologiques ont accéléré l'échange d'information par diverses voies biophysiques, y compris les voies électriques et électrochimiques. Ces flux d'information plus rapides permet d'atteindre des niveaux de conscience à l'échelle macroscopique plus élevés que ceux qui se produiraient dans des structures d'échelle similaire comme des blocs rocheux ou un tas de sable, simplement parce qu'il y a une connectivité beaucoup plus grande et donc plus "en action" dans les structures biologiques que dans un bloc ou un tas de sable. Roches et les tas de sable n'ont que des voies thermiques avec une bande passante très limitée.

Les blocs rocheux et les tas de sable sont de "simples agrégats" ou collections d'entités conscientes plus rudimentaires (probablement au niveau atomique ou moléculaire seulement), plutôt que des combinaisons d'entités micro-conscientes qui se combinent en une entité macro-consciente de niveau supérieur, ce qui est la marque de la vie biologique.

Par conséquent, le type de communication entre les structures résonnantes est essentiel pour que la conscience s'étende au-delà du type rudimentaire de conscience que nous nous attendons à trouver dans des structures physiques plus fondamentales.

La thèse centrale de notre approche est la suivante : les liens particuliers qui permettent à la macro-conscience de se produire résultent d'une résonance partagée entre de nombreux composants micro-conscients. La vitesse des ondes de résonance présentes est le facteur limitant qui détermine la taille de chaque entité consciente.

Au fur et à mesure qu'une résonance partagée s'étend à de plus en plus de constituants, l'entité consciente particulière devient plus grande et plus complexe. Ainsi, la résonance partagée dans un cerveau humain qui atteint la synchronisation gamma, par exemple, comprend un nombre beaucoup plus important de neurones et de connexions neuronales que ce n'est le cas pour les rythmes bêta ou thêta.

Des structures résonnantes qui résonnent de haut en bas.

Notre théorie de la résonance de la conscience tente de fournir un cadre unifié qui inclut la neuroscience et l'étude de la conscience humaine, mais aussi des questions plus fondamentales de neurobiologie et de biophysique. Elle va au cœur des différences qui comptent quand il s'agit de la conscience et de l'évolution des systèmes physiques.

C'est une question de vibrations, mais c'est aussi une question de type de vibrations et, surtout, de vibrations partagées.

Mets tout ça dans ta pipe. Et fume, mon pote.

Auteur: Tam Hunt

Info: https://blogs.scientificamerican.com, 5 décembre 2018

[ chair-esprit ] [ spéculation ]

 
Commentaires: 2
Ajouté à la BD par miguel

subatomique

Des scientifiques font exploser des atomes avec un laser de Fibonacci pour créer une dimension temporelle "supplémentaire"

Cette technique pourrait être utilisée pour protéger les données des ordinateurs quantiques contre les erreurs.

(Photo avec ce texte : La nouvelle phase a été obtenue en tirant des lasers à 10 ions ytterbium à l'intérieur d'un ordinateur quantique.)

En envoyant une impulsion laser de Fibonacci à des atomes à l'intérieur d'un ordinateur quantique, des physiciens ont créé une phase de la matière totalement nouvelle et étrange, qui se comporte comme si elle avait deux dimensions temporelles.

Cette nouvelle phase de la matière, créée en utilisant des lasers pour agiter rythmiquement un brin de 10 ions d'ytterbium, permet aux scientifiques de stocker des informations d'une manière beaucoup mieux protégée contre les erreurs, ouvrant ainsi la voie à des ordinateurs quantiques capables de conserver des données pendant une longue période sans les déformer. Les chercheurs ont présenté leurs résultats dans un article publié le 20 juillet dans la revue Nature.

L'inclusion d'une dimension temporelle "supplémentaire" théorique "est une façon complètement différente de penser les phases de la matière", a déclaré dans un communiqué l'auteur principal, Philipp Dumitrescu, chercheur au Center for Computational Quantum Physics de l'Institut Flatiron, à New York. "Je travaille sur ces idées théoriques depuis plus de cinq ans, et les voir se concrétiser dans des expériences est passionnant.

Les physiciens n'ont pas cherché à créer une phase dotée d'une dimension temporelle supplémentaire théorique, ni à trouver une méthode permettant d'améliorer le stockage des données quantiques. Ils souhaitaient plutôt créer une nouvelle phase de la matière, une nouvelle forme sous laquelle la matière peut exister, au-delà des formes standard solide, liquide, gazeuse ou plasmatique.

Ils ont entrepris de construire cette nouvelle phase dans le processeur quantique H1 de la société Quantinuum, qui se compose de 10 ions d'ytterbium dans une chambre à vide, contrôlés avec précision par des lasers dans un dispositif connu sous le nom de piège à ions.

Les ordinateurs ordinaires utilisent des bits, c'est-à-dire des 0 et des 1, pour constituer la base de tous les calculs. Les ordinateurs quantiques sont conçus pour utiliser des qubits, qui peuvent également exister dans un état de 0 ou de 1. Mais les similitudes s'arrêtent là. Grâce aux lois étranges du monde quantique, les qubits peuvent exister dans une combinaison, ou superposition, des états 0 et 1 jusqu'au moment où ils sont mesurés, après quoi ils s'effondrent aléatoirement en 0 ou en 1.

Ce comportement étrange est la clé de la puissance de l'informatique quantique, car il permet aux qubits de se lier entre eux par l'intermédiaire de l'intrication quantique, un processus qu'Albert Einstein a baptisé d'"action magique à distance". L'intrication relie deux ou plusieurs qubits entre eux, connectant leurs propriétés de sorte que tout changement dans une particule entraîne un changement dans l'autre, même si elles sont séparées par de grandes distances. Les ordinateurs quantiques sont ainsi capables d'effectuer plusieurs calculs simultanément, ce qui augmente de manière exponentielle leur puissance de traitement par rapport à celle des appareils classiques.

Mais le développement des ordinateurs quantiques est freiné par un gros défaut : les Qubits ne se contentent pas d'interagir et de s'enchevêtrer les uns avec les autres ; comme ils ne peuvent être parfaitement isolés de l'environnement extérieur à l'ordinateur quantique, ils interagissent également avec l'environnement extérieur, ce qui leur fait perdre leurs propriétés quantiques et l'information qu'ils transportent, dans le cadre d'un processus appelé "décohérence".

"Même si tous les atomes sont étroitement contrôlés, ils peuvent perdre leur caractère quantique en communiquant avec leur environnement, en se réchauffant ou en interagissant avec des objets d'une manière imprévue", a déclaré M. Dumitrescu.

Pour contourner ces effets de décohérence gênants et créer une nouvelle phase stable, les physiciens se sont tournés vers un ensemble spécial de phases appelées phases topologiques. L'intrication quantique ne permet pas seulement aux dispositifs quantiques d'encoder des informations à travers les positions singulières et statiques des qubits, mais aussi de les tisser dans les mouvements dynamiques et les interactions de l'ensemble du matériau - dans la forme même, ou topologie, des états intriqués du matériau. Cela crée un qubit "topologique" qui code l'information dans la forme formée par de multiples parties plutôt que dans une seule partie, ce qui rend la phase beaucoup moins susceptible de perdre son information.

L'une des principales caractéristiques du passage d'une phase à une autre est la rupture des symétries physiques, c'est-à-dire l'idée que les lois de la physique sont les mêmes pour un objet en tout point du temps ou de l'espace. En tant que liquide, les molécules d'eau suivent les mêmes lois physiques en tout point de l'espace et dans toutes les directions. Mais si vous refroidissez suffisamment l'eau pour qu'elle se transforme en glace, ses molécules choisiront des points réguliers le long d'une structure cristalline, ou réseau, pour s'y disposer. Soudain, les molécules d'eau ont des points préférés à occuper dans l'espace et laissent les autres points vides ; la symétrie spatiale de l'eau a été spontanément brisée.

La création d'une nouvelle phase topologique à l'intérieur d'un ordinateur quantique repose également sur la rupture de symétrie, mais dans cette nouvelle phase, la symétrie n'est pas brisée dans l'espace, mais dans le temps.

En donnant à chaque ion de la chaîne une secousse périodique avec les lasers, les physiciens voulaient briser la symétrie temporelle continue des ions au repos et imposer leur propre symétrie temporelle - où les qubits restent les mêmes à travers certains intervalles de temps - qui créerait une phase topologique rythmique à travers le matériau.

Mais l'expérience a échoué. Au lieu d'induire une phase topologique à l'abri des effets de décohérence, les impulsions laser régulières ont amplifié le bruit provenant de l'extérieur du système, le détruisant moins d'une seconde et demie après sa mise en marche.

Après avoir reconsidéré l'expérience, les chercheurs ont réalisé que pour créer une phase topologique plus robuste, ils devaient nouer plus d'une symétrie temporelle dans le brin d'ion afin de réduire les risques de brouillage du système. Pour ce faire, ils ont décidé de trouver un modèle d'impulsion qui ne se répète pas de manière simple et régulière, mais qui présente néanmoins une sorte de symétrie supérieure dans le temps.

Cela les a conduits à la séquence de Fibonacci, dans laquelle le nombre suivant de la séquence est créé en additionnant les deux précédents. Alors qu'une simple impulsion laser périodique pourrait simplement alterner entre deux sources laser (A, B, A, B, A, B, etc.), leur nouveau train d'impulsions s'est déroulé en combinant les deux impulsions précédentes (A, AB, ABA, ABAAB, ABAABAB, ABAABABA, etc.).

Cette pulsation de Fibonacci a créé une symétrie temporelle qui, à l'instar d'un quasi-cristal dans l'espace, est ordonnée sans jamais se répéter. Et tout comme un quasi-cristal, les impulsions de Fibonacci écrasent également un motif de dimension supérieure sur une surface de dimension inférieure. Dans le cas d'un quasi-cristal spatial tel que le carrelage de Penrose, une tranche d'un treillis à cinq dimensions est projetée sur une surface à deux dimensions. Si l'on examine le motif des impulsions de Fibonacci, on constate que deux symétries temporelles théoriques sont aplaties en une seule symétrie physique.

"Le système bénéficie essentiellement d'une symétrie bonus provenant d'une dimension temporelle supplémentaire inexistante", écrivent les chercheurs dans leur déclaration. Le système apparaît comme un matériau qui existe dans une dimension supérieure avec deux dimensions de temps, même si c'est physiquement impossible dans la réalité.

Lorsque l'équipe l'a testé, la nouvelle impulsion quasi-périodique de Fibonacci a créé une phase topographique qui a protégé le système contre la perte de données pendant les 5,5 secondes du test. En effet, ils ont créé une phase immunisée contre la décohérence pendant beaucoup plus longtemps que les autres.

"Avec cette séquence quasi-périodique, il y a une évolution compliquée qui annule toutes les erreurs qui se produisent sur le bord", a déclaré Dumitrescu. "Grâce à cela, le bord reste cohérent d'un point de vue mécanique quantique beaucoup plus longtemps que ce à quoi on s'attendrait.

Bien que les physiciens aient atteint leur objectif, il reste un obstacle à franchir pour que leur phase devienne un outil utile pour les programmeurs quantiques : l'intégrer à l'aspect computationnel de l'informatique quantique afin qu'elle puisse être introduite dans les calculs.

"Nous avons cette application directe et alléchante, mais nous devons trouver un moyen de l'intégrer dans les calculs", a déclaré M. Dumitrescu. "C'est un problème ouvert sur lequel nous travaillons.

 

Auteur: Internet

Info: livesciences.com, Ben Turner, 17 août 2022

[ anions ] [ cations ]

 

Commentaires: 0

Ajouté à la BD par miguel

mémorisation

Ce qu'il se passe dans notre cerveau quand on se rappelle un souvenir

La mémoire n'est pas assurée par une partie spécifique du cerveau, mais plutôt par des connexions entre les neurones.

(Photo : Les engrammes, connexions entre des neurones actifs, façonnent nos souvenirs.) 

La mémoire est une aptitude essentielle qui nous permet d'intégrer, de conserver et de restituer les informations auxquelles nous sommes confrontés. Cette fonction n'est pas assurée par une structure précise du cerveau, mais par un ensemble de neurones connectés en réseau et répartis dans différentes régions. La mémoire constitue le fondement de notre intelligence et de notre identité, en regroupant savoir-faire et souvenirs.

Le processus de la mémoire débute par l'encodage, où les informations captées par les organes sensoriels sont transformées en traces de mémoire, appelées engrammes. Ces engrammes désignent un groupe spécifique de neurones activés en réponse à une information, tel qu'un texte que vous venez de lire, par exemple. 

 Ensuite, lors de la consolidation, ces informations sont renforcées pour un stockage à long terme. Enfin, le rappel permet de solliciter à tout moment une information, permettant ainsi l'adaptation du comportement en fonction des expériences passées. L'oubli survient en cas d'absence d'accès à ces informations. Bien que la mémoire puisse prendre différentes formes, elle est souvent soutenue par un engramme présent dans diverses régions cérébrales. Dans cet article, nous allons revenir sur ces différentes étapes de la vie d'un souvenir dans le cerveau.

L'engramme, un concept ancien réétudié

Les prémices de la compréhension de la mémoire en tant que modification durable du cerveau remontent à Aristote et Platon, vers 350 avant notre ère. Le concept scientifique de ces altérations a été initié il y a plus de cent ans par le biologiste allemand Richard Semon. C'est lui qui nomme et définit l'engramme comme la base neuronale du stockage et de la récupération des souvenirs.

Les fondements de la recherche moderne sur ce sujet remontent aux idées influentes de Ramón y Cajal, neurobiologiste espagnol lauréat du prix Nobel de physiologie en 1906, et soutenant que l'expérience modifie les connexions neuronales. On sait en effet depuis la moitié du XXe siècle que l'activation simultanée de cellules interconnectées renforce leurs connexions. La résurgence récente des études sur les engrammes est la conséquence des avancées techniques permettant désormais de cibler précisément les neurones, facilitant ainsi leur compréhension.

Un réseau de neurones qui se renforce

À la lumière de ces découvertes, nous avons maintenant pu affiner notre compréhension de ce qu'est un engramme. Fondamentalement, la création d'un engramme résulte du renforcement des connexions entre les groupes de neurones actifs en même temps pendant l'apprentissage. Les connexions entre les neurones se produisent au niveau d'une synapse, formée par la liaison entre deux extrémités neuronales. Ces connexions synaptiques résultent en la formation de groupes de neurones travaillant ensemble: c'est l'engramme proprement dit.

Ainsi, lorsqu'une information est stockée dans le cerveau, elle est représentée par un réseau de neurones interconnectés entre eux, mais qui ne se situent pas forcément dans la même zone. Ces neurones ne sont d'ailleurs pas spécifiques à la mémoire, et en plus d'intégrer l'engramme, ils continuent d'interagir au sein de réseaux différents pour remplir d'autres fonctions. 

Le stockage d'un souvenir sur une longue période entraîne des changements qui se manifestent à plusieurs niveaux. Ces ajustements se caractérisent par une augmentation du nombre de prolongements neuronaux, augmentant ainsi le nombre de synapses et donc la connexion entre neurones. Ce renforcement des connexions synaptiques augmente alors la probabilité qu'un schéma d'activité neuronale qui s'est produit pendant l'apprentissage soit reproduit ultérieurement lors du rappel, facilitant ainsi la récupération du souvenir.

Pour illustrer ce concept de manière concrète, imaginez avoir passé un moment dans un champ de lavande. La vue de la couleur violette ou l'odeur de la lavande déclenche l'activation du réseau de neurones qui était actif lors de votre promenade dans ce champ, ravivant ainsi votre souvenir.

Cet engramme peut adopter différents états, soit actif lorsque vous vous remémorez une information, soit dormant, jusqu'à ce que le souvenir refasse surface. Il peut aussi être indisponible, ce qui signifie qu'il existe mais qu'il ne peut plus être activé par un stimulus externe

(Image : Les états dynamiques de l’engramme, de l'apprentissage à l'oubli. Document fourni par l'auteur)

Encodage, consolidation et rappel, les étapes clés du souvenir

Pendant l'apprentissage, les informations qui sont répétées ou qui portent une forte charge émotionnelle sont plus susceptibles d'être mémorisées. Lors de leur intégration dans le cerveau, une compétition entre les neurones se met en place dans différentes régions cérébrales pour être recruté dans la formation d'un engramme. Les neurones les plus actifs en lien avec les informations sensorielles du souvenir l'emportent et deviennent des cellules d'engramme. Cette coordination entre neurones actifs renforce les connexions synaptiques entre ces neurones, amorçant ainsi la formation du réseau constituant l'engramme.

Pendant la consolidation, l'engramme subit une transformation de son état initial instable et sensible aux perturbations vers un état plus durable et résistant. Cette transition est permise grâce à certaines protéines essentielles à l'activité des neurones et à leurs connexions. Ce processus intervient pendant le sommeil, où l'on observe une réactivation des neurones impliqués. 

En présence dans notre environnement d'éléments similaires à ceux du souvenir, ce dernier peut alors ressurgir: c'est le rappel. Ce processus implique la réactivation de l'engramme. Pendant le rappel, les neurones qui étaient actifs lors de l'apprentissage se réactivent. Mais au moment de la récupération, le souvenir peut devenir temporairement instable, déstabilisant l'engramme qui la soutient. De nouvelles connexions peuvent se former tandis que d'autres peuvent se perdre.

Par exemple, lorsque vous partagez un souvenir avec une autre personne, vous le décrivez avec votre subjectivité, ce qui peut entraîner des modifications de l'événement par rapport à comment il s'est réellement déroulé. Ces modifications peuvent être intégrées comme faisant partie du souvenir lui-même à force d'être racontées ou rappelées.

Pourquoi les souvenirs changent-ils?

L'engramme n'est donc pas immuable. Un souvenir se modifie aussi avec le temps en fonction du degré d'émotion qu'on lui associe. On peut alors en perdre les détails pour ne garder qu'une sensation positive ou négative selon l'importance qu'a ce souvenir pour nous. Prenons l'exemple d'un ancien souvenir de vacances à la plage, où vous ne vous souvenez que de la sensation agréable de la chaleur, sans vous rappeler les détails précis tels que la date ou l'heure. Au niveau cérébral, cela se traduit par une modification du nombre de neurones et de connexions associés à ce souvenir.

Quant à l'oubli, c'est un phénomène généralement défini comme l'absence de manifestation comportementale d'un souvenir, même s'il aurait pu être rappelé avec succès auparavant. Par exemple, cet oubli peut se produire lorsqu'on vous demande la date de décès de Vercingétorix: vous avez appris à l'école qu'il s'agit de 46 av. J.-C., mais vous l'avez oubliée par la suite car elle n'avait peut-être plus d'utilité dans votre vie.

Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

L'oubli peut aussi être pathologique, et associé à certaines maladies telles que la maladie d'Alzheimer. Même si les informations sont d'une importance émotionnelle réelle, comme le prénom de vos parents, la maladie peut vous empêcher d'y accéder. Selon cette perspective, l'oubli peut alors résulter soit d'une dégradation totale de l'engramme, entraînant une indisponibilité de la mémoire, soit d'un problème de rappel. Le cerveau étant un organe très plastique, il peut arriver qu'il y ait des modifications synaptiques au niveau d'un engramme, ce qui le déstabilise et augmente alors la probabilité d'oubli.

Un espoir pour retrouver les souvenirs disparus

Cependant, ce remodelage ne conduit pas nécessairement à un effacement complet de la mémoire, mais plutôt à un silence de l'engramme. Des engrammes " silencieux " ont par exemple été observés chez des souris amnésiques, et la réactivation artificielle de ces engrammes permet une récupération de la mémoire, alors que les indices naturels dans l'environnement ne le peuvent pas.

Ces résultats suggèrent que l'oubli est souvent dû à un échec de récupération de la mémoire, plutôt qu'à son effacement complet. Une des hypothèses avancées pour les maladies touchant la mémoire serait que les souvenirs peuvent être silencieux plutôt que perdus à proprement parler.

Notre étude, en cours de publication, utilise des outils chez la souris pour enregistrer l'activité directe des neurones formant l'engramme à différentes étapes de sa formation. Grâce à l'activité de ces neurones et aux outils développés en collaboration avec des mathématiciens, nous reconstruisons les cartes de connectivité fonctionnelle définissant l'engramme. Cette connectivité correspond au fait que l'on peut associer l'activité des neurones enregistrés avec les actions réalisées par la souris pendant cet enregistrement.

Ainsi nous pouvons suivre l'engramme au cours des processus d'apprentissage, de consolidation, de rappel et d'oubli et étudier sa dynamique. À long terme, l'objectif serait d'exploiter ces résultats afin de mieux appréhender l'acquisition, le stockage et l'utilisation de l'information chez les humains, et ainsi de potentiellement faciliter le traitement des troubles de la mémoire et d'autres dysfonctionnements cognitifs.   

 

Auteur: Villet Maxime

Info: https://www.slate.fr/story, 7 mai 2024

[ déformation mémorielle ] [ itération ]

 

Commentaires: 0

Ajouté à la BD par miguel

perception humaine

Les schémas mathématiques secrets révélés par la musique de Bach

Le compositeur baroque allemand Jean Sébastien Bach a produit une musique si bien structurée qu'elle est souvent comparée aux maths. Bien que peu d'entre nous soient émotionnellement affectés par les mathématiques, les œuvres de Bach - et la musique en général - nous émeuvent. C'est plus que du son ; c'est un message. Désormais, grâce aux outils de la théorie de l'information, les chercheurs commencent à comprendre comment la musique de Bach fait passer ce message.

En faisant de ses partitions de simples réseaux de points, appelés nœuds, reliés par des lignes, nommeés bords, les scientifiques ont quantifié les informations véhiculées par des centaines de compositions de Bach. Analyse de ces réseaux musicaux publiée le 2 février dans Physical Review Research qui révèle que les nombreux styles musicaux de Bach, tels que les chorales et les toccatas, différaient considérablement dans la quantité d'informations qu'ils communiquaient - et que certains réseaux musicaux contenaient des structures qui pouvaient faciliter la compréhension de leurs messages par les auditeurs humains.

" Je trouve cette idée vraiment cool ", explique le physicien Suman Kulkarni de l’Université de Pennsylvanie, auteur principal de la nouvelle étude. " Nous avons utilisé des outils de la physique sans faire d’hypothèses sur les pièces musicales, en commençant par cette simple représentation et en voyant ce qui peut nous dire sur les informations qui sont transmises. "

Les chercheurs ont quantifié le contenu de toute cette information, des séquences simples aux réseaux enchevêtrés, utilisant le concept d'entropie de l'information, introduit par le mathématicien Claude Shannon en 1948.

Comme son nom l'indique, l'entropie de l'information est mathématiquement et conceptuellement liée à l'entropie thermodynamique. Elle peut être considérée comme une mesure du degré de surprise d'un message - "message" qui peut être tout ce qui transmet des informations, d'une séquence de nombres à un morceau de musique. Cette perspective peut sembler contre-intuitive, étant donné que, dans le langage courant, l'information est souvent assimilée à la certitude. Mais l'idée clé de l'entropie de l'information est qu'apprendre quelque chose que l'on sait déjà n'est pas apprendre du tout.

Une conversation avec une personne qui ne sait exprimer qu'une chose, comme le personnage Hodor dans la série télévisée Game of Thrones, qui dit seulement " Hodor ", sera prévisible mais pas informationelle. Une discussion avec Pikachu sera un peu meilleure ; le Pokémon ne peut dire que les syllabes de son nom, mais il peut les réarranger, contrairement à Hodor. De même, une pièce de musique ne comportant qu'une seule note sera relativement facile à "apprendre" par le cerveau, c'est-à-dire à reproduire avec précision sous la forme d'un modèle mental, mais le morceau aura du mal à faire passer un quelconque message. Regarder un jeu de pile ou face avec une pièce à deux têtes ne donnera aucune information.

Bien sûr, envoyer un message plein d'informations n'est pas très bon si le quelque chose - ou qui que ce soit - qui le reçoit ne peut  comprendre avec précision ces informations. Et quand il s'agit de messages musicaux, les chercheurs travaillent encore sur la façon dont nous apprenons ce que la musique essaie de nous dire.

" Il existe quelques théories différentes ", explique le cognitiviste Marcus Pearce de l’université Queen Mary de Londres, qui n’a pas participé à la récente étude de la recherche sur l’évaluation physique. " La principale, je pense, en ce moment, est basée sur l’apprentissage probabiliste. Dans ce cadre, "apprendre" la musique signifie construire des représentations mentales précises des sons réels que nous entendons - ce que les chercheurs appellent un modèle - par un jeu d'anticipation et de surprise. Nos modèles mentaux prédisent la probabilité qu'un son donné vienne ensuite, sur la base de ce qui a précédé. Ensuite, explique M. Pearce, " on découvre si la prédiction était juste ou fausse, et on peut alors mettre à jour son modèle en conséquence".

Kulkarni et ses collègues sont physiciens, pas musiciens. Ils voulaient utiliser les outils de la théorie de l'information pour explorer la musique à la recherche de structures d'information qui pourraient avoir quelque chose à voir avec la façon dont les humains glanent un sens de la mélodie.

Ainsi Kulkarni a transformé 337 compositions de Bach en bandes de nœuds interconnectés et calculé l'entropie de l'information des réseaux qui en résultent. Dans ces réseaux, chaque note de la partition d'origine est un noeud, et chaque transition entre notes est un pont. Par example, si une pièce inclut une note Mi suivie d'un Do et d'un Sol joués ensemble, le noeud représentant E sera relié aux noeuds représentant Do et Sol.

Les réseaux de ce notation transitions dans la musique de Bach ont générés plus de poinçon d'information que des réseaux de même taille générés aléatoirement - le résultat d'une plus grande variation dans les degrés nodaux des réseaux, c'est-à-dire le nombre d'arêtes connectées à chaque nœud. En outre, les scientifiques ont découvert des variations dans la structure de l'information et le contenu des nombreux styles de composition de Bach. Les chorals, hymnes destinés à être chanté, ont donné lieu à des réseaux relativement pauvres en informations, bien que plus riches en informations que les réseaux de même taille générés de manière aléatoire. Les toccatas et les préludes, styles musicaux souvent écrits pour des instruments à clavier tels que l'orgue, le clavecin et le piano, présentant une entropie de l'information plus élevée.

" J’ai été particulièrement excité par les niveaux plus élevés de surprises dans les toccatas que dans les œuvres chorales ", explique le co-auteur de l’étude et physicien Dani Bassett de l’Université de Pennsylvanie. " Ces deux types de pièces sonnent et résonnent différement dans mes os, et ça m'a passionné de voir que cette distinction se manifeste dans l'information de composition. "

Ces structures de réseau dans les compositions de Bach pourraient également permettre aux auditeurs humains d'apprendre plus facilement certaines choses. Les humains n'apprennent pas parfaitement les réseaux. Nous avons des préjugés, dit Bassett. " Nous ignorons en quelque sorte certaines des informations locales au profit de la vue d’une image plus grande de l’information sur l’ensemble du système ", ajoute-t-ils. En modélisant ce biais dans la façon dont nous construisons nos modèles mentaux de réseaux complexes, les chercheurs ont comparé l'ensemble des informations de chaque réseau musical à la quantité d'informations qu'un auditeur humain en tirerait.

Des réseaux musicaux contenaient des groupes de transitions de notes pourraient aider nos cerveaux biaisés " apprendre " la musique - à reproduire la structure informationnelle de la musique avec précision en tant que modèle mental - sans sacrifier beaucoup d'informations.

" La façon dont elles saisissent l’aptitude à l’apprentissage est assez intéressante ", déclare Peter Harrison de l’Université de Cambridge, qui n’a pas participé à l’étude. " C'est très réducteur dans un certain sens. Mais c'est tout à fait complémentaire avec d'autres théories que nous connaissons, et l'aptitude à apprendre est assez difficile à maîtriser ".

Ce type d'analyse de réseau n'est pas particulier à Bach et il pourrait fonctionner pour n'importe quel compositeur. Pearce dit qu'il sera  intéressant d'utiliser cette approche pour comparer différents compositeurs ou rechercher des tendances informatives à travers l'histoire de la musique. Pour sa part, Kulkarni est excité à l'idée d'analyser les propriétés d'information de partitions d'au-delà de la tradition musicale occidentale.

La musique n'est pas seulement une séquence de notes, note cependant Harrison. Le rythme, le volume, le timbre des instruments, ces éléments sont des aspects importants des messages musicaux qui n'ont pas été pris en compte dans cette étude. Kulkarni dit qu'il sera intéressé par l'inclusion de ces aspects de la musique dans ses réseaux. Le processus pourrait également fonctionner dans l'autre sens, ajoute M. Harrison : plutôt que réduire les caractéristiques musicales à un réseau, il sera intéressant de savoir comment les caractéristiques du réseau se traduisent par des éléments qu'un musicien reconnaîtrait.

Un musicien dira : " Quelles sont les règles musicales réelles, ou les caractéristiques musicales, qui en sont à l’origine ? Puis-je l’entendre sur un piano ? " précise Harrison.

Enfin, on ne sait pas encore exactement comment les modèles de réseaux identifiés dans la nouvelle étude se traduisent dans l'expérience vécue à l'écoute d'un morceau de Bach - ou de n'importe quelle musique, précise M. Pearce. La résolution de ce problème relèvera de la psychologie musicale, poursuit-il. Des expériences pourraient révéler "si, de fait, ce genre de choses est perceptible par les gens et quels sont leurs effets sur le plaisir que les gens éprouvent lorsqu'ils écoutent de la musique". De même Harrison se dit intéressé par des expériences visant à vérifier si les types d'erreurs d'apprentissage en réseau que les chercheurs ont modélisés dans cette étude sont réellement importants pour l'apprentissage de la musique.

"Le fait que les humains présentent ce type de perception imparfaite et biaisée de systèmes informationnels complexes est essentiel pour comprendre comment nous nous impliquons dans la musique", explique M. Bassett. "Comprendre la complexité informationnelle des compositions de Bach ouvre de nouvelles questions sur les processus cognitifs qui sous-tendent la manière dont nous apprécions les différents types de musique."

Auteur: Internet

Info: https://www.scientificamerican.com, 16 féb 2024. Elise Cutts - Secret Mathematical Patterns Revealed in Bach's Music

[ sentiment naturel ] [ approfondissement découverte ] [ dépaysement plaisir ] [ cybernétisation ] [ simple compliqué ] [ occulte harmonie ]

 
Commentaires: 1
Ajouté à la BD par Le sous-projectionniste

machine-homme

Les algorithmes traditionnels alimentent des outils de calcul compliqués comme l'apprentissage automatique (machine learning). Une nouvelle approche, appelée algorithmes avec prédictions, utilise la puissance de l'apprentissage automatique pour améliorer les algorithmes.

Les algorithmes - morceaux de code qui permettent aux programmes de trier, filtrer et combiner des données, entre autres choses - sont les outils standard de l'informatique moderne. Tels de minuscules engrenages dans une montre, les algorithmes exécutent des tâches bien définies au sein de programmes plus complexes.

Ils sont omniprésents, et c'est en partie pour cette raison qu'ils ont été minutieusement optimisés au fil du temps. Lorsqu'un programmeur doit trier une liste, par exemple, il se sert d'un algorithme de "tri" standard utilisé depuis des décennies.

Aujourd'hui, des chercheurs jettent un regard neuf sur les algorithmes traditionnels, en utilisant la branche de l'IA , donc du machine learning. Leur approche, appelée "algorithmes avec prédictions", tire parti des informations que les outils d'apprentissage automatique peuvent fournir sur les données traitées par les algorithmes traditionnels. Ces outils doivent, en quelque sorte, rajeunir la recherche sur les algorithmes de base.

L'apprentissage automatique et les algorithmes traditionnels sont "deux façons très différentes de calculer, et les algorithmes avec prédictions sont un moyen de les rapprocher", a déclaré Piotr Indyk, informaticien au Massachusetts Institute of Technology. "C'est un moyen de combiner ces deux fils conducteurs assez différents".

La récente explosion d'intérêt pour cette approche a commencé en 2018 avec un article de Tim Kraska, informaticien au MIT, et d'une équipe de chercheurs de Google. Dans cet article, les auteurs ont suggéré que l'apprentissage automatique pourrait améliorer un algorithme traditionnel bien étudié appelé filtre de Bloom, qui résout un problème simple mais aussi complexe et ardu.

Imaginez que vous dirigez le service informatique de votre entreprise et que vous devez vérifier si vos employés se rendent sur des sites web présentant un risque pour la sécurité. Naïvement, vous pourriez penser que vous devez vérifier chaque site qu'ils visitent en le comparant à une liste noire de sites connus. Si la liste est énorme (comme c'est probablement le cas pour les sites indésirables sur Internet), le problème devient lourd - on ne peut vérifier chaque site par rapport à une liste énorme dans le minuscule lapts de temps qui précède le chargement d'une page Internet.

Le filtre Bloom offre une solution, en permettant de vérifier rapidement et précisément si l'adresse d'un site particulier, ou URL, figure sur la liste noire. Pour ce faire, il comprime essentiellement l'énorme liste en une liste plus petite qui offre certaines garanties spécifiques.

Les filtres Bloom ne produisent jamais de faux négatifs : s'ils disent qu'un site est mauvais, il est mauvais. Cependant, ils peuvent produire des faux positifs, de sorte que vos employés ne pourront peut-être pas visiter des sites auxquels ils devraient avoir accès. Cela s'explique par le fait qu'ils s'agit d'une forme d'échange qui implique une certaine imprécision due à cette énorme quantité de données compressées -  astuce intitulée "compression avec perte". Plus les filtres Bloom compriment les données d'origine, moins ils sont précis, mais plus ils économisent de l'espace.

Pour un simple filtre Bloom, chaque site Web est également suspect jusqu'à confirmaton qu'il ne figure pas sur la liste. Mais tous les sites Web ne sont pas égaux : Certains ont plus de chances que d'autres de se retrouver sur une liste noire, simplement en raison de détails comme leur domaine ou les mots de leur URL. Les gens comprennent cela intuitivement, et c'est pourquoi vous lisez probablement les URL pour vous assurer qu'elles sont sûres avant de cliquer dessus.

L'équipe de Kraska a mis au point un algorithme qui peut également appliquer ce type de logique. Ils l'ont appelé "filtre de Bloom instruit" et il combine un petit filtre de Bloom avec un réseau neuronal récurrent (RNN), modèle de machine learning qui apprend à quoi ressemblent les URL malveillantes après avoir été exposées à des centaines de milliers de sites web sûrs et non sûrs.

Lorsque le filtre Bloom vérifie un site web, le RNN agit en premier et utilise son apprentissage pour déterminer si le site figure sur la liste noire. Si le RNN indique que le site figure sur la liste, le filtre Bloom appris le rejette. Mais si le RNN dit que le site n'est pas sur la liste, alors le petit filtre Bloom peut à son tour, faire une recherche précise, mais irréfléchie, dans ses sites compressés.

En plaçant le filtre Bloom à la fin du processus et en lui donnant le dernier mot, les chercheurs ont fait en sorte que les filtres Bloom instruits puissent toujours garantir l'absence de faux négatifs. Mais comme le RNN préfiltre les vrais positifs à l'aide de ce qu'il a appris, le petit filtre de Bloom agit davantage comme une sauvegarde, en limitant également ses faux positifs au minimum. Un site Web bénin qui aurait pu être bloqué par un filtre Bloom de plus grande taille peut désormais passer outre le "filtre Bloom iinstruit" plus précis. En fait, Kraska et son équipe ont trouvé un moyen de tirer parti de deux méthodes éprouvées, mais traditionnellement distinctes, d'aborder le même problème pour obtenir des résultats plus rapides et plus précis.

L'équipe de Kraska a démontré que la nouvelle approche fonctionnait, mais elle n'a pas formellement expliqué pourquoi. Cette tâche a été confiée à Michael Mitzenmacher, spécialiste des filtres de Bloom à l'université de Harvard, qui a trouvé l'article de Kraska "novateur et passionnant", mais aussi fondamentalement insatisfaisant. "Ils font des expériences en disant que leurs algorithmes fonctionnent mieux. Mais qu'est-ce que cela signifie exactement ?" a-t-il demandé. "Comment le savons-nous ?"

En 2019, Mitzenmacher a proposé une définition formelle d'un filtre de Bloom INSTRUIT et a analysé ses propriétés mathématiques, fournissant une théorie qui explique exactement comment il fonctionne. Et alors que Kraska et son équipe ont montré que cela pouvait fonctionner dans un cas, Mitzenmacher a prouvé que cela pouvait toujours fonctionner.

Mitzenmacher a également amélioré les filtres de Bloom appris. Il a montré que l'ajout d'un autre filtre de Bloom standard au processus, cette fois avant le RNN, peut pré-filtrer les cas négatifs et faciliter le travail du classificateur. Il a ensuite prouvé qu'il s'agissait d'une amélioration en utilisant la théorie qu'il a développée.

Les débuts des algorithmes avec prédiction ont suivi ce chemin cyclique : des idées novatrices, comme les filtres de Bloom appris, inspirent des résultats mathématiques rigoureux et une compréhension, qui à leur tour conduisent à d'autres idées nouvelles. Au cours des dernières années, les chercheurs ont montré comment intégrer les algorithmes avec prédictions dans les algorithmes d'ordonnancement, la conception de puces et la recherche de séquences d'ADN.

Outre les gains de performance, ce domaine fait également progresser une approche de l'informatique de plus en plus populaire : rendre les algorithmes plus efficaces en les concevant pour des utilisations typiques.

À l'heure actuelle, les informaticiens conçoivent souvent leurs algorithmes pour qu'ils réussissent dans le scénario le plus difficile, celui conçu par un adversaire qui tente de les faire échouer. Par exemple, imaginez que vous essayez de vérifier la sécurité d'un site web sur les virus informatiques. Le site est peut-être inoffensif, mais il contient le terme "virus informatique" dans l'URL et le titre de la page. La confusion est telle que même les algorithmes les plus sophistiqués ne savent plus où donner de la tête.

Indyk appelle cela une approche paranoïaque. "Dans la vie réelle, dit-il, les entrées ne sont généralement pas générées par des adversaires." La plupart des sites Web que les employés visitent, par exemple, ne sont pas aussi compliqués que notre hypothétique page de virus, et il est donc plus facile pour un algorithme de les classer. En ignorant les pires scénarios, les chercheurs peuvent concevoir des algorithmes adaptés aux situations qu'ils sont susceptibles de rencontrer. Par exemple, alors qu'à l'heure actuelle, les bases de données traitent toutes les données de la même manière, les algorithmes avec prédiction pourraient conduire à des bases de données qui structurent le stockage de leurs données en fonction de leur contenu et de leur utilisation.

Et ce n'est encore qu'un début, car les programmes qui utilisent l'apprentissage automatique pour améliorer leurs algorithmes ne le font généralement que de manière limitée. Comme le filtre de Bloom, la plupart de ces nouvelles structures n'intègrent qu'un seul élément d'apprentissage automatique. M. Kraska imagine un système entier construit à partir de plusieurs pièces distinctes, dont chacune repose sur des algorithmes avec des prédictions et dont les interactions sont régulées par des composants améliorés par les prédictions.

"Tirer parti de cela aura un impact sur de nombreux domaines".

Gageons qu'avec de tels systèmes, un site comme FLP se retrouve à peu près certain de ne jamais être accepté par un filtre de Bloom - ou un filtre de Bloom instruit. Qui sont - objectivement - des instruments de contrôle, et donc de fermeture.  (Note du traducteur).

Auteur: Internet

Info: Nick Thieme, https://www.quantamagazine.org, A I, Machine Learning Reimagines the Building Blocks of Computing, March 15, 2022. Trad Mg

[ censure numérique ] [ triage web ] [ citation s'appliquant à ce logiciel ]

 

Commentaires: 0

Ajouté à la BD par miguel

dernières paroles

MA DERNIERE CARTOUCHE... ULTIME COMBAT POUR UNE CAUSE ORPHELINE
Non ! Le LAOS n'était pas une " colonie " comme les autres. Nous ne l'avions pas pris de force: il s'était donné à nous librement à la suite d'une sorte d'attirance réciproque nouée à l'occasion d'événements dramatiques. " A la conquête des coeurs ! " écrivait Auguste PAVIE dont la personnalité attachante avait séduit le vieux Roi Oun KHAM qui avait placé son royaume sous la protection de la France pour échapper à la cruelle tutelle du voisin siamois.
Non ! Les Laotiens ne sont pas un peuple comme les autres. Leur art de vivre, leur façon d'être heureux malgré, ou peut-être à cause, d'une extrême pauvreté ; leur aménité, leur nonchalance (parfois stigmatisée par leur laborieux voisin vietnamiens, la bouleversante douceur de leurs femmes, la gentillesse de leurs enfants en font un peuple à part dans un monde dominé par la loi du profit. A l'exception notable des H'mongs, victimes depuis 1975 d'un véritable génocide, ce ne sont pas de farouches guerriers mais ils savent, sans se plaindre, mourir au combat et ont le courage de se faire tuer en se portant au secours d'un frère d'armes. C'est ainsi que, le 17 juillet 1950 vers 14 h, près de Ban Saka, le chasseur Ba LAN, mortellement frappé à mes côtés, ne prononce qu'un mot, thièp, pour signaler qu'il est blessé ; il s'éteint, 10 heures plus tard, sans avoir une seule fois crié sa souffrance ! Et lorsque, le 7 juillet 1954, je me débats dans la Nam Hin Boun en crue sous les tirs d'une cinquantaine de Viets, le sergent LIENE qui a déjà traversé la rivière fait demi-tour et se jette è l'eau pour me secourir ; il est tué d'une balle dans la tête à quelques brasses de moi ! Et le lendemain (8 juillet), alors que, blessé, j'étais dans l'incapacité de franchir une barre calcaire de plusieurs centaines de mètres de haut pour rejoindre les miens, de braves paysans lao m'ont littéralement porté par-dessus l'obstacle, et cela au péril de leur propre existence !
Non ! Les Laotiens n'étaient pas des amis comme les autres, ceux qui vous oublient lorsque viennent les épreuves et les dangers : quand les Japonais exécutèrent leur " coup de force " du 9 mars 1945 avec une traîtrise peu en rapport avec les principes du " bushido ", il y eut, en de nombreux endroits, et notamment à Thakkek, une véritable chasse à l'homme blanc. Ceux qui étaient pris étaient souvent décapités. Monsieur Henri FRAISSE, Sous-préfet à Mortagne-au-Perche en 1991, se souvient : petit garçon habitant Thakkek avec ses parents, lui et sa famille ont été sauvés par des Laotiens qui, au péril de leur vie, les ont emmenés, cachés et nourris jusqu'à ce que tout danger soit écarté. Et, dans tout le pays, les Laotiens ont agi de même, au secours des Français menacés.
C'est dans ce contexte d'amitié partagée que la France, du temps de sa grandeur, à signé, après Dien Bien Phu dont le choix avait été dicté par le souci de protéger le Laos, trois traités garantissant la liberté et l'indépendance du royaume du Million d'Eléphants et du Parasol Blanc. D'abord le Traité de Genève de 1954 mettant fin à notre guerre d'Indochine. Ensuite, les Accords de Genève de 1962 garantissant la neutralité du Laos. Enfin, le Traité de Paris de 1973 pour le respect et la reconnaissance de l'indépendance, de la souveraineté et de l'intégrité territoriale du Royaume du Laos. Or ces accords ont été violés, sans réaction notable des signataires, par la République Démocratique du Viet Nam (devenue depuis République Socialiste du Viet Nam) : dès le retrait précipité des Américains fin 1975, d'importantes forces armées nord-vietnamiennes ont envahi le Laos et permis aux maigres effectifs communistes lao de s'emparer du pouvoir par la force lors du " coup d'état " du 2 décembre 1975. Il faut savoir que les effectifs vietnamiens engagés à cette occasion ont été (officiellement) démobilisés sur place et convertis en ouvriers travaillant dans le cadre d'un projet de développement rural financé par les aide internationales. En réalité, ces aides ne font qu'entretenir une armée d'occupation vietnamienne abritée dans la Zone Spéciale Stratégique de Xay Somboun (au sud-ouest de Xieng Khouang), véritable Base de regroupement de soldats et cache d'armes lourdes (artillerie et blindés). Ces importantes forces vietnamiennes sont toujours prêtes à intervenir sans délai en cas de soulèvement populaire ou de coup d'état contre le gouvernement actuel, mis en place par Hanoï. C'est d'ailleurs dans cette zone qu'ont eu lieu les répressions les plus féroces contre les résistants H'mongs désespérément accrochés au fameux massif du Phou BIA. En outre, il m'a été confirmé par différentes sources (dont certaines sont implantées au sein même du pseudo Gouvernement Laotien), que le Viet Nam avait procédé, depuis plusieurs années, à une massive colonisation de peuplement en installant au Laos, sur les meilleures terres, 3 millions de vietnamiens communistes bénéficiant d'avantages exceptionnels. De surcroît, on constate une mainmise des vietnamiens sur les différents services artisanaux (coiffeur. menuisier, épicier, boucher etc.) au détriment des Laotiens.
Lorsque, fin 1975, les Américains se sont " désengagés " du conflit vietnamien, je n'ai pas compris que le Laos allait perdre son indépendance et qu'une inhumaine dictature communiste allait lui être imposée par la force des armes. Nos gouvernants ont feint de croire qu'il s'agissait d'une affaire intérieure laotienne, ce qui les dispensait d'agir dans le cadre de nos engagements. Et lorsque le père Jean-Marie OLLIVIER, oblat de Marie Immaculée, a voulu dénoncer, pour en avoir été témoin, cette ingérence d'une puissance étrangère dans les affaires intérieures d'un état indépendant, on lui a répondu..., qu'on " ne voulait pas le savoir " ! J'ai, d'ailleurs, écrit à ce sujet un article contenant le récit détaillé du Père OLLIVIER sous le titre " Les lépreux de SOMSANOUK et le Missionnaire qui en savait trop ".
Par suite du mutisme complice des autorités françaises, je n'ai appris l'asservissement du Laos qu'en 1999, en lisant le témoignage terrifiant du Colonel Khamphan THAMMAKHANTI, l'un des rares rescapés de ces goulags qui font partie de la " culture " communiste. Ce récit, intitulé " La vérité sur le camp-prison N°01 ou camp de la mort au point 438-745? M'a été transmis par SAR le Général Tiao SAYAVONG, ancien commandant de la 1ère Région Militaire (Luang Prabang) et demi-frère du roi Sri Savang VATTHANA. Ce Général, que j'avais connu lieutenant à Thakkek en 1954, avait lui-même passé 16 ans en camp de " rééducation ". Quelque temps après avoir témoigné, lui et le Colonel THAMMAKHANTI sont morts des suites des mauvais traitements qu'ils avaient endurés,,,
Avec une grande naïveté, j'ai pensé que nos " média " et nos gouvernants n'étaient pas " au courant ". Il m'appartenait donc de dénoncer le crime. Ce que j'ai fait en m'adressant aux grands journaux, aux mouvements de défense des peuples opprimés, aux politiciens, à Mr CHIRAC puis à son épouse, à certaine vedette de la chanson, à Mr KOUCHINER. à Mr MENARD, à Mr d'ORMESSON, à Mr DEVEDJIAN, au candidat puis au Président SARKOZY et à son épouse. Les réponses sont allées du silence méprisant aux justifications minables ou mensongères. Et j'ai fini par comprendre qu'ils étaient tous " au parfum ", un parfum de cadavres, et que tous participaient à cette conspiration du silence qui protège les crimes communistes.
Et puis, au début de l'année 2010, est arrivé l'inacceptable : 4200 H'mongs enfermés depuis des décennies dans un " camp de regroupement " thaïlandais ont été livrés à leurs bourreaux lao-viets afin d'améliorer encore les bonnes relations (commerciales) nouées depuis déjà longtemps entre la République Démocratique Populaire Lao et le Royaume Thaïlandais. Survenant au moment où l'on " commémorait " la sinistre " rafle du Vel. D'Hiv. " Commise pour des raisons ethniques sur des effectifs comparables, ce crime (connu avant d'être consommé) aurait dû soulever une énorme vague d'indignation. C'était compter sans le pouvoir discrétionnaire des journalistes de tous bords qui ont littéralement escamoté l'événement. A part deux ou trois brefs communiqués, que personne n'a repris mais qui pourront, plus tard, servir d'alibi, et ce sont toutes les " belles consciences brevetées " qui sont restées muettes, enveloppant dans un linceul de silence les 4.200 H'mongs partis pour leur dernier voyage...
Après une période de découragement, j'ai décidé de jouer ma dernière carte ou, plus exactement, de tirer ms dernière cartouche. Dans ma tête. En d'autres termes, je vais me " faire sauter le caisson " pour expier ma part de honte et protester contre la lâche indifférence de nos responsables face au terrible malheur qui frappe nos amis Lao. Ce n'est pas un suicide mais un acte de guerre visant à secourir nos frères d'armes en danger de mort. Quant à vous, les gouvernants sans honneur, vous, les grands " média " sans courage et vous, les " collabos " sans vergogne, je vous crache mon sang et mon mépris à la gueule !
Je demande pardon à tous ceux qui m'aiment pour le chagrin que je vais leur causer. Signé : Le Colonel Robert JAMBON, Retraité des Troupes de Marine

Auteur: Jambon Robert

Info:

[ suicide ]

 

Commentaires: 0

strates biologiques

Les chemins aléatoires de l'évolution mènent à un même endroit

Une étude statistique massive suggère que le résultat final de l’évolution – la forme physique – est prévisible.

(Photo  : Différentes souches de levure cultivées dans des conditions identiques développent des mutations différentes, mais parviennent finalement à des limites évolutives similaires.)

Dans son laboratoire du quatrième étage de l'Université Harvard, Michael Desai a créé des centaines de mondes identiques afin d'observer l'évolution à l'œuvre. Chacun de ses environnements méticuleusement contrôlés abrite une souche distincte de levure de boulangerie. Toutes les 12 heures, les assistants robots de Desai arrachent la levure à la croissance la plus rapide de chaque monde – sélectionnant celle qui est la plus apte à vivre – et jettent le reste. Desai surveille ensuite les souches à mesure qu'elles évoluent au cours de 500 générations. Son expérience, que d'autres scientifiques considèrent comme d'une ampleur sans précédent, cherche à mieux comprendre une question qui préoccupe depuis longtemps les biologistes : si nous pouvions recommencer le monde, la vie évoluerait-elle de la même manière ?

De nombreux biologistes affirment que ce ne serait pas le cas et que des mutations fortuites au début du parcours évolutif d’une espèce influenceraient profondément son destin. "Si vous rejouez le déroulement du vivant, vous pourriez avoir une mutation initiale qui vous emmènera dans une direction totalement différente", a déclaré Desai, paraphrasant une idée avancée pour la première fois par le biologiste Stephen Jay Gould dans les années 1980.

Les cellules de levure de Desai remettent en question cette croyance. Selon les résultats publiés dans Science en juin, toutes les variétés de levures de Desai ont atteint à peu près le même point final d'évolution (tel que mesuré par leur capacité à se développer dans des conditions de laboratoire spécifiques), quel que soit le chemin génétique précis emprunté par chaque souche. C'est comme si 100 taxis de la ville de New York acceptaient d'emprunter des autoroutes distinctes dans une course vers l'océan Pacifique et que 50 heures plus tard, ils convergeaient tous vers la jetée de Santa Monica.

Les résultats suggèrent également un décalage entre l’évolution au niveau génétique et au niveau de l’organisme dans son ensemble. Les mutations génétiques se produisent pour la plupart de manière aléatoire, mais la somme de ces changements sans but crée d’une manière ou d’une autre un modèle prévisible. Cette distinction pourrait s’avérer précieuse, dans la mesure où de nombreuses recherches en génétique se sont concentrées sur l’impact des mutations dans des gènes individuels. Par exemple, les chercheurs se demandent souvent comment une seule mutation pourrait affecter la tolérance d’un microbe aux toxines ou le risque de maladie d’un humain. Mais si les découvertes de Desai s'avèrent valables pour d'autres organismes, elles pourraient suggérer qu'il est tout aussi important d'examiner comment un grand nombre de changements génétiques individuels fonctionnent de concert au fil du temps.

"En biologie évolutive, il existe une sorte de tension entre penser à chaque gène individuellement et la possibilité pour l'évolution de modifier l'organisme dans son ensemble", a déclaré Michael Travisano, biologiste à l'université du Minnesota. "Toute la biologie s'est concentrée sur l'importance des gènes individuels au cours des 30 dernières années, mais le grand message à retenir de cette étude est que ce n'est pas nécessairement important". 

La principale force de l’expérience de Desai réside dans sa taille sans précédent, qui a été qualifiée d’« audacieuse » par d’autres spécialistes du domaine. La conception de l'expérience est ancrée dans le parcours de son créateur ; Desai a suivi une formation de physicien et, depuis qu'il a lancé son laboratoire il y a quatre ans, il a appliqué une perspective statistique à la biologie. Il a imaginé des moyens d'utiliser des robots pour manipuler avec précision des centaines de lignées de levure afin de pouvoir mener des expériences évolutives à grande échelle de manière quantitative. Les scientifiques étudient depuis longtemps l’évolution génétique des microbes, mais jusqu’à récemment, il n’était possible d’examiner que quelques souches à la fois. L'équipe de Desai, en revanche, a analysé 640 lignées de levure qui avaient toutes évolué à partir d'une seule cellule parent. L'approche a permis à l'équipe d'analyser statistiquement l'évolution.

"C'est l'approche physicienne de l'évolution, réduisant tout aux conditions les plus simples possibles", a déclaré Joshua Plotkin, biologiste évolutionniste à l'Université de Pennsylvanie qui n'a pas participé à la recherche mais a travaillé avec l'un des auteurs. "Ce qui pourrait permettre de définir la part du hasard dans l'évolution, quelle est la part du point de départ et la part du bruit de mesure."

Le plan de Desai était de suivre les souches de levure à mesure qu'elles se développaient dans des conditions identiques, puis de comparer leurs niveaux de condition physique finaux, déterminés par la rapidité avec laquelle elles se développaient par rapport à leur souche ancestrale d'origine. L’équipe a utilisé des bras robotisés spécialement conçus pour transférer les colonies de levure vers une nouvelle maison toutes les 12 heures. Les colonies qui s’étaient le plus développées au cours de cette période passèrent au cycle suivant et le processus se répéta pendant 500 générations. Sergey Kryazhimskiy , chercheur postdoctoral dans le laboratoire de Desai, passait parfois la nuit dans le laboratoire, analysant l'aptitude de chacune des 640 souches à trois moments différents. Les chercheurs ont ensuite pu comparer la variation de la condition physique entre les souches et découvrir si les capacités initiales d'une souche affectaient sa position finale. Ils ont également séquencé les génomes de 104 souches pour déterminer si les mutations précoces modifiaient les performances finales.

Des études antérieures ont indiqué que de petits changements au début du parcours évolutif peuvent conduire à de grandes différences plus tard, une idée connue sous le nom de contingence historique. Des études d'évolution à long terme sur la bactérie E. coli, par exemple, ont montré que les microbes peuvent parfois évoluer pour manger un nouveau type d'aliment, mais que des changements aussi importants ne se produisent que lorsque certaines mutations habilitantes se produisent en premier. Ces mutations précoces n’ont pas d’effet important en elles-mêmes, mais elles jettent les bases nécessaires pour des mutations ultérieures qui en auront.

Mais en raison de la petite échelle de ces études, Desai ne savait pas clairement si ces cas constituaient l'exception ou la règle. "Obtenez-vous généralement de grandes différences dans le potentiel évolutif qui surviennent au cours du cours naturel de l'évolution, ou l'évolution est-elle en grande partie prévisible?" il répond "Pour répondre à cette question, nous avions besoin de la grande échelle de notre expérience."

Comme dans les études précédentes, Desai a constaté que les mutations précoces influencent l'évolution future, en façonnant le chemin que prend la levure. Mais dans cette expérience, ce chemin n'a pas eu d'incidence sur la destination finale. "Ce type particulier de contingence rend en fait l'évolution de la forme physique  plus prévisible, et pas moins prévisible", a déclaré M. Desai.

Desai a montré que, tout comme une seule visite à la salle de sport profite plus à un amateur flappi par la TV qu'à un athlète, les microbes qui commençent par croître lentement tirent bien plus parti des mutations bénéfiques que leurs homologues plus en forme qui démarrent sur les chapeaux de roue. " Si vous êtes à la traîne au début à cause de la malchance, vous aurez tendance à aller mieux dans le futur ", a déclaré Desai. Il compare ce phénomène au principe économique des rendements décroissants - après un certain point, chaque unité d'effort supplémentaire aide de moins en moins.

Les scientifiques ne savent pas pourquoi toutes les voies génétiques chez la levure semblent arriver au même point final, une question que Desai et d'autres acteurs du domaine trouvent particulièrement intrigante. La levure a développé des mutations dans de nombreux gènes différents, et les scientifiques n'ont trouvé aucun lien évident entre eux. On ne sait donc pas exactement comment ces gènes interagissent dans la cellule, voire pas du tout. "Il existe peut-être une autre couche du métabolisme que personne ne maîtrise", a déclaré Vaughn Cooper, biologiste à l'Université du New Hampshire qui n'a pas participé à l'étude.

Il n’est pas non plus clair si les résultats soigneusement contrôlés de Desai sont applicables à des organismes plus complexes ou au monde réel chaotique, où l’organisme et son environnement changent constamment. "Dans le monde réel, les organismes réussissent dans différentes choses, en divisant l'environnement", a déclaré Travisano. Il prédit que les populations situées au sein de ces niches écologiques seraient toujours soumises à des rendements décroissants, en particulier à mesure qu'elles s'adaptent. Mais cela reste une question ouverte, a-t-il ajouté.

Cependant, certains éléments suggèrent que les organismes complexes peuvent également évoluer rapidement pour se ressembler davantage. Une étude publiée en mai a analysé des groupes de drosophiles génétiquement distinctes alors qu'elles s'adaptaient à un nouvel environnement. Malgré des trajectoires évolutives différentes, les groupes ont développé des similitudes dans des attributs tels que la fécondité et la taille du corps après seulement 22 générations. " Ainsi beaucoup de gens pensent à un gène pour un trait, une façon déterministe de résoudre des problèmes par l'évolution ", a déclaré David Reznick, biologiste à l'Université de Californie à Riverside. " Cela montre que ce n'est pas vrai ; on peut évoluer pour être mieux adapté à l'environnement de nombreuses façons. "





 

Auteur: Internet

Info: Quanta Magazine, Emily Singer, September 11, 2014

[ bio-mathématiques ] [ individu-collectif ] [ équilibre grégaire ] [ compensation mutationnelle ]

 
Commentaires: 1
Ajouté à la BD par miguel

chimiosynthèse

Les cellules souterraines produisent de l'« oxygène sombre » sans lumière

Dans certaines profondes nappes souterraines, les cellules disposent d’une astuce chimique pour produire de l’oxygène qui pourrait alimenter des écosystèmes souterrains entiers.

(Photo - Dans un monde ensoleillé, la photosynthèse fournit l’oxygène indispensable à la vie. Au fond des profondeurs, la vie trouve un autre chemin.)

Les scientifiques se sont rendu compte que le sol et les roches sous nos pieds abritent une vaste biosphère dont le volume global est près de deux fois supérieur à celui de tous les océans de la planète. On sait peu de choses sur ces organismes souterrains, qui représentent l’essentiel de la masse microbienne de la planète et dont la diversité pourrait dépasser celle des formes de vie vivant en surface. Leur existence s’accompagne d’une grande énigme : les chercheurs ont souvent supposé que bon nombre de ces royaumes souterrains étaient des zones mortes pauvres en oxygène, habitées uniquement par des microbes primitifs qui maintiennent leur métabolisme au ralenti et se débrouillent grâce aux traces de nutriments. À mesure que ces ressources s’épuisent, pensait-on, l’environnement souterrain devient sans vie à mesure que l’on s’enfonce.

Dans une nouvelle recherche publiée le mois dernier dans Nature Communications , les chercheurs ont présenté des preuves qui remettent en question ces hypothèses. Dans des réservoirs d'eau souterraine situés à 200 mètres sous les champs de combustibles fossiles de l'Alberta, au Canada, ils ont découvert des microbes abondants qui produisent des quantités étonnamment importantes d'oxygène, même en l'absence de lumière. Les microbes génèrent et libèrent tellement de ce que les chercheurs appellent " l'oxygène noir " que c'est comme découvrir " le même quantité d'oxygène que celle  issue de la photosynthèse dans la forêt amazonienne ", a déclaré Karen Lloyd , microbiologiste souterrain à l'Université du Tennessee qui n'était pas partie de l’étude. La quantité de gaz diffusé hors des cellules est si grande qu’elle semble créer des conditions favorables à une vie dépendante de l’oxygène dans les eaux souterraines et les strates environnantes.

"Il s'agit d'une étude historique", a déclaré Barbara Sherwood Lollar , géochimiste à l'Université de Toronto qui n'a pas participé aux travaux. Les recherches antérieures ont souvent porté sur les mécanismes susceptibles de produire de l'hydrogène et d'autres molécules vitales pour la vie souterraine, mais cette création de molécules contenant de l'oxygène a été largement négligée car ces molécules sont très rapidement consommées dans l'environnement souterrain. Jusqu’à présent, " aucune étude n’a rassemblé tout cela comme celle-ci ", a-t-elle déclaré.

La nouvelle étude a porté sur les aquifères profonds de la province canadienne de l’Alberta, qui possède des gisements souterrains si riches en goudron, en sables bitumineux et en hydrocarbures qu’elle a été surnommée " le Texas du Canada ". Parce que ses énormes industries d'élevage de bétail et d'agriculture dépendent fortement des eaux souterraines, le gouvernement provincial surveille activement l'acidité et la composition chimique de l'eau. Pourtant, personne n’avait étudié systématiquement la microbiologie des eaux souterraines.

Pour Emil Ruff , mener une telle enquête semblait être " une solution facile " en 2015 lorsqu'il a commencé son stage postdoctoral en microbiologie à l'Université de Calgary. Il ne savait pas que cette étude apparemment simple le mettrait à rude épreuve pendant les six prochaines années.

Profondeurs encombrées

Après avoir collecté l'eau souterraine de 95 puits à travers l'Alberta, Ruff et ses collègues ont commencé à faire de la microscopie de base : ils ont coloré des cellules microbiennes dans des échantillons d'eau souterraine avec un colorant à base d'acide nucléique et ont utilisé un microscope à fluorescence pour les compter. En radiodatant la matière organique présente dans les échantillons et en vérifiant les profondeurs auxquelles ils avaient été collectés, les chercheurs ont pu identifier l'âge des aquifères souterrains qu'ils exploitaient.

Une tendance dans les chiffres les intriguait. Habituellement, lors d'études sur les sédiments sous le fond marin, par exemple, les scientifiques constatent que le nombre de cellules microbiennes diminue avec la profondeur : les échantillons plus anciens et plus profonds ne peuvent pas abriter autant de vie car ils sont davantage privés des nutriments produits par les plantes photosynthétiques. et des algues près de la surface. Mais à la surprise de l'équipe de Ruff, les eaux souterraines plus anciennes et plus profondes contenaient plus de cellules que les eaux plus douces.

Les chercheurs ont ensuite commencé à identifier les microbes présents dans les échantillons, à l’aide d’outils moléculaires pour repérer leurs gènes marqueurs révélateurs. Beaucoup d’entre eux étaient des archées méthanogènes – des microbes simples et unicellulaires qui produisent du méthane après avoir consommé de l’hydrogène et du carbone suintant des roches ou de la matière organique en décomposition. De nombreuses bactéries se nourrissant du méthane ou des minéraux présents dans l’eau étaient également présentes.

Ce qui n'avait aucun sens, cependant, c'est que bon nombre de bactéries étaient des aérobies, des microbes qui ont besoin d'oxygène pour digérer le méthane et d'autres composés. Comment les aérobies pourraient-ils prospérer dans des eaux souterraines qui ne devraient pas contenir d’oxygène, puisque la photosynthèse est impossible ? Mais les analyses chimiques ont également révélé une grande quantité d’oxygène dissous dans les échantillons d’eau souterraine de 200 mètres de profondeur.

C'était du jamais vu. "On a sûrement foiré l'échantillon", fut la première réaction de Ruff.

Il a d’abord tenté de montrer que l’oxygène dissous dans les échantillons était le résultat d’une mauvaise manipulation. "C'est comme être Sherlock Holmes", a déclaré Ruff. " Vous essayez de trouver des preuves et des indications " pour réfuter vos hypothèses. Cependant, la teneur en oxygène dissous semblait constante sur des centaines d’échantillons. Une mauvaise manipulation ne pouvait pas l'expliquer.

Si l’oxygène dissous ne provenait pas d’une contamination, d’où venait-il ? Ruff s'est rendu compte qu'il près de quelque chose de grand, même si faire des affirmations controversées va à l'encontre de sa nature. Beaucoup de ses co-auteurs avaient également des doutes : cette découverte menaçait de briser les fondements de notre compréhension des écosystèmes souterrains.

Produire de l'oxygène pour tout le monde

En théorie, l’oxygène dissous dans les eaux souterraines pourrait provenir de plantes, de microbes ou de processus géologiques. Pour trouver la réponse, les chercheurs se sont tournés vers la spectrométrie de masse, une technique permettant de mesurer la masse des isotopes atomiques. En règle générale, les atomes d’oxygène provenant de sources géologiques sont plus lourds que l’oxygène provenant de sources biologiques. L’oxygène présent dans les eaux souterraines était léger, ce qui impliquait qu’il devait provenir d’une entité vivante. Les candidats les plus plausibles étaient les microbes.

Les chercheurs ont séquencé les génomes de l’ensemble de la communauté microbienne présente dans les eaux souterraines et ont repéré les voies et réactions biochimiques les plus susceptibles de produire de l’oxygène. Les réponses pointaient sans cesse vers une découverte faite il y a plus de dix ans par Marc Strous de l'Université de Calgary, auteur principal de la nouvelle étude et chef du laboratoire où travaillait Ruff.

Alors qu'il travaillait dans un laboratoire aux Pays-Bas à la fin des années 2000, Strous avait remarqué qu'un type de bactérie se nourrissant de méthane, souvent présente dans les sédiments des lacs et les boues d'épuration, avait un mode de vie étrange. Au lieu d'absorber l'oxygène de son environnement comme les autres aérobies, ces bactéries créent leur propre oxygène en utilisant des enzymes pour décomposer les composés solubles appelés nitrites (qui contiennent un groupe chimique composé d'azote et de deux atomes d'oxygène). Les bactéries utilisent l’oxygène auto-généré pour transformer le méthane en énergie.

Lorsque les microbes décomposent les composés de cette façon, on parle de dismutation. Jusqu’à présent, on pensait que cette méthode de production d’oxygène était rare dans la nature. Des expériences récentes en laboratoire impliquant des communautés microbiennes artificielles ont cependant révélé que l'oxygène produit par la dismutation peut s'échapper des cellules et se répandre dans le milieu environnant au profit d'autres organismes dépendants de l'oxygène, dans une sorte de processus symbiotique. Ruff pense que cela pourrait permettre à des communautés entières de microbes aérobies de prospérer dans les eaux souterraines, et potentiellement également dans les sols environnants.

Chimie pour la vie ailleurs

Cette découverte comble une lacune cruciale dans notre compréhension de l’évolution de l’immense biosphère souterraine et de la manière dont la dismutation contribue au cycle des composés se déplaçant dans l’environnement mondial. La simple possibilité que de l'oxygène soit présent dans les eaux souterraines " change notre compréhension du passé, du présent et de l'avenir du sous-sol ", a déclaré Ruff, qui est maintenant scientifique adjoint au Laboratoire de biologie marine de Woods Hole, Massachusetts.

Comprendre ce qui vit dans le sous-sol de notre planète est également " crucial pour transposer ces connaissances ailleurs ", a déclaré Sherwood Lollar. Le sol de Mars, par exemple, contient des composés perchlorates que certains microbes terrestres peuvent transformer en chlorure et en oxygène. Europe, la lune de Jupiter, possède un océan profond et gelé ; la lumière du soleil ne peut pas y pénétrer, mais l'oxygène pourrait potentiellement y être produit par dismutation microbienne au lieu de la photosynthèse. Les scientifiques ont observé des panaches de vapeur d’eau jaillissant de la surface d’Encelade, l’une des lunes de Saturne. Les panaches proviennent probablement d’un océan souterrain d’eau liquide. Si un jour nous trouvons de la vie sur d’autres mondes comme ceux-là, elle pourrait emprunter des voies de dismutation pour survivre.

Quelle que soit l'importance de la dismutation ailleurs dans l'univers, Lloyd est étonné de voir à quel point les nouvelles découvertes défient les idées préconçues sur les besoins de la vie et par l'ignorance scientifique qu'elles révèlent sur l'une des plus grandes biosphères de la planète. " C'est comme si nous avions toujours eu un œuf sur le visage ", a-t-elle déclaré.

Auteur: Internet

Info: https://www.quantamagazine.org/, Saugat Bolakhé, juillet 2023

[ perspectives extraterrestres ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

pouvoir oligarchique

Le véritable Big Brother

Jeff Bezos est le propriétaire du Washington Post, qui dirige les médias américains qui soutiennent et promeuvent le néoconservatisme, l'impérialisme américain et les guerres. Cela comprend des sanctions, des coups d'État et des invasions militaires contre des pays que les milliardaires américains veulent contrôler mais ne contrôlent pas encore - comme le Venezuela, la Syrie, l'Iran, la Russie, la Libye et la Chine.

Ce sont des guerres agressives contre des pays qui n'ont jamais agressé les États-Unis. Ils ne sont pas du tout sur la défensive, mais exactement le contraire. Ce n'est pas nécessairement une guerre sans fin (même Hitler n'avait pas prévu cela), mais une guerre jusqu'à ce que la planète entière soit passée sous le contrôle du gouvernement américain, un gouvernement qui est lui-même contrôlé par les milliardaires américains, les financeurs du néoconservatisme et de l'impérialisme - dans les deux principaux partis politiques américains, les think tanks, les journaux, les réseaux TV, etc.

Bezos a joué un rôle crucial dans le néoconservatisme, lors de la réunion Bilderberg du 6 au 9 juin 2013, il s'est arrangé avec Donald Graham, le propriétaire du Washington Post, pour acheter ce journal, pour 250 millions $. Bezos avait déjà négocié, en mars de la même année, avec le directeur néoconservateur de la CIA, John Brennan, un contrat de dix ans de 600 millions de dollars pour le cloud computing qui a transformé Amazon Corporation, qui était au départ une entreprise fiable et peu rentable, en une entreprise rentable et fiable.

La valeur nette de Bezos a donc augmenté encore plus Il est devenu le vendeur le plus influent non seulement pour les livres, mais aussi pour la CIA et pour des méga-corporations comme Lockheed Martin. L'impérialisme a gonflé sa richesse, mais il n'en est pas le seul responsable. Bezos est peut-être l'homme d'affaires le plus férocement doué de la planète.

Certains milliardaires américains ne se soucient pas autant que lui de la conquête internationale, mais tous acceptent le néoconservatisme ; aucun d'entre eux, par exemple, n'établit et ne donne de grosses sommes à des organisations anti-impérialistes ; aucun milliardaire américain n'est déterminé à mettre fin au règne du néoconservatisme, ni même à aider la lutte pour y mettre fin, ou du moins pour en finir avec sa prise sur le gouvernement américain. Aucune. Pas même un seul d'entre eux ne le fait.

Mais beaucoup d'entre eux créent et donnent des sommes importantes à des organisations néoconservatrices, ou dirigent des organes néoconservateurs comme le Washington Post. C'est comme ça que sont les milliardaires, du moins aux États-Unis. Tous sont impérialistes. Ils commanditent ; ils en font la promotion et embauchent des gens qui le font, et ils rétrogradent ou se débarrassent des gens qui ne le font pas. L'expansion d'un empire est extrêmement rentable pour ses aristocrates, et l'a toujours été, même avant l'Empire romain.

Bezos veut privatiser tout ce qui peut l'être partout dans le monde, comme l'éducation, les autoroutes, les soins de santé et les pensions. Plus les milliardaires contrôlent ces choses, moins tout le monde les contrôle ; et empêcher le public de les contrôler aide à protéger les milliardaires contre une démocratie qui augmenterait leurs impôts et contre une réglementation gouvernementale qui réduirait leurs profits en augmentant les dépenses de leurs sociétés. Ainsi, les milliardaires contrôlent le gouvernement afin d'augmenter leurs recettes publiques.

Avec l'aide de la promotion de guerre du Washington Post, Bezos est l'un des meilleurs vendeurs personnels au monde du complexe militaro-industriel américain. Il contrôle et est le plus grand investisseur d'Amazon corporation, dont la division Web Services fournit tous les services de cloud-computing au Pentagone, à la CIA et à la NSA. (Il mène la charge dans la technologie de reconnaissance faciale la plus avancée aussi.)

En avril, il y avait un gros titre, "CIA Considering Cloud Contract Worth'Tens of Billions'", qui pourrait faire grimper la richesse personnelle de Bezos bien plus haut dans la stratosphère).

Il domine également à l'échelle mondiale et augmente constamment son contrôle sur la promotion et la vente de livres et de films, parce que son Amazon est le plus grand détaillant au monde (et maintenant aussi l'un des plus grands éditeurs, producteurs et distributeurs.) Cela aussi peut avoir un impact énorme sur la politique et le gouvernement, indirectement, en favorisant les travaux les plus néocon contribuant à former le discours intellectuel (et les votes des électeurs) dans les pays.

Bezos écrase des millions de détaillants par sa capacité inégalée à contrôler un marché après l'autre en tant qu'Amazon ou en tant qu'intermédiaire essentiel pour - et souvent même en tant que contrôleur - les concurrents d'Amazon.

Il croit fermement au "libre marché", qu'il maîtrise peut-être mieux que quiconque. Cela signifie que Bezos soutient la capacité non régulée des milliardaires, par le biais de leur argent, de contrôler et éventuellement d'absorber tous ceux qui sont moins puissants qu'eux.

Parce qu'il est si doué pour amasser des richesses, il a réussi jusqu'à présent à se hisser au sommet mondial, comme un des individus les plus puissants du monde. Le plus riche de tous est le roi Salman d'Arabie saoudite, dont Aramco (la plus grande compagnie pétrolière du monde) vaut, à elle seule, plus d'un trillion de dollars. (Forbes et Bloomberg excluent les monarques de leur classement.)

En fait, Bloomberg est même tellement frauduleux à ce sujet qu'il a fait cette manchette le 10 août dernier, " Les 25 dynasties les plus riches de la planète contrôlent 1,4 billion de dollars " et a violé leur tradition en incluant sur leur liste un monarque, le roi Salman, qui est classé au quatrième rang des détenteurs de seulement 100 millions $, une estimation ridicule qui ne se borne pas à Aramco mais qui exclut sans vergogne la totalité de la fortune nette d'Arabie saoudite.

Bloomberg n'a même pas essayé de justifier leur méthodologie farfelue, mais a simplement présumé la crédulité du lecteur pour son acceptation. Ce roi est donc au moins sept fois plus riche que Bezos. Il est peut-être aussi puissant que Bezos. L'héritier suprême est beaucoup plus riche même que le milliardaire suprême, ou "entrepreneur".

Certes, les deux hommes sont parmi les géants qui dominent le monde à notre époque. Et les deux hommes sont des Libertariens - champions de la croyance que les droits de propriété (dont les milliardaires ont tant) sont la base de tous les droits, et ils croient donc que les personnes les plus riches possèdent le plus de droits, et que les plus pauvres en ont le moins, et que toutes celles dont la valeur nette est négative (ayant plus de dettes que de biens) ne possèdent aucun droit sauf les dons ou autres subventions de riches, par bienveillance ou autre (comme les liens familiaux).

C'est cela - la privatisation de tout - c'est ce qu'est le libertarianisme : la valeur d'une personne est sa "valeur nette" - rien d'autre. Cette croyance est du pur libertarianisme. C'est une croyance que beaucoup, sinon la plupart des milliardaires ont. Les milliardaires sont impérialistes parce qu'ils cherchent à maximiser la liberté des super-riches, qu'il s'agisse d'augmenter leurs recettes auprès de tous ceux qui ne sont pas super-riches ou de les appauvrir. Ils ont une idéologie cohérente. C'est basé sur la richesse. Du coup le public croit plutôt aux mythes que les milliardaires propagent.

Comme tout milliardaire, Bezos embauche et retient des employés et d'autres agents qui font ce qu'il/elle veut qu'ils fassent. C'est leur pouvoir direct. Mais les milliardaires possèdent aussi un pouvoir indirect énorme en raison de leurs interdépendances, car chaque grande société est liée par contrat à d'autres sociétés, surtout à de grandes sociétés comme la leur ; et, par conséquent, le pouvoir que possède un milliardaire donné est en fait un pouvoir partagé avec les autres. (Un exemple était l'accord conclu par Bezos avec Graham.)

Collectivement, ils travaillent en réseau, même avec ceux qu'ils n'auraient peut-être jamais rencontrés personnellement, mais seulement par l'intermédiaire de leurs représentants, et même avec leurs propres principaux concurrents économiques. Il s'agit d'un pouvoir collectif que les milliardaires possèdent en plus de leur pouvoir individuel en tant que payeurs d'employés et autres agents.

Alors que Winston Smith, dans le roman allégorique prophétique "1984", demandait à son supérieur et tortionnaire O'Brien : "Est-ce que Big Brother existe ?"

"Bien sûr qu'il existe. Le Parti existe. Big Brother est l'incarnation du Parti."

"Existe-t-il de la même façon que moi ?"

" Tu n'existes pas", dit O'Brien.

Ce pouvoir collectif est incarné par Bezos aussi bien que tout milliardaire. Quelques-uns des autres l'incarnent peut-être aussi, comme Bill Gates, Warren Buffett, Larry Ellison, Mark Zuckerberg, Charles Koch, Sergey Brin, Michael Bloomberg, George Soros et Jack Dorsey. Ils se font concurrence et ont donc des priorités différentes pour le gouvernement américain, mais ils sont tous d'accord bien plus qu'ils ne sont en désaccord sur ce que le gouvernement "devrait" faire (surtout que l'armée américaine devrait être renforcée - aux frais des contribuables, bien sûr, pas aux leurs).

Fondamentalement, ce Big Brother, dans le monde réel, est remarquablement cohérent et unifié - bien plus que le public - et c'est l'une des raisons pour lesquelles ils contrôlent le gouvernement, contournant le public.

Voici comment tout cela se passe, en termes de ce que les agents de Bezos ont accompli :

Son Amazon paie peu ou pas d'impôts fédéraux parce que le gouvernement fédéral a écrit les lois fiscales pour encourager les entreprises à faire le genre de choses que Bezos a toujours voulu qu'Amazon fasse.

Le gouvernement américain encourage donc les méga-sociétés, par le biais de taxes et de règlements, à écraser les petites entreprises en rendant leur croissance plus difficile. Cela verrouille quelque peu l'aristocratie existante pour qu'elle soit moins auto-construite (comme l'était Bezos lui-même, mais ses enfants ne le seront pas).

Les politiciens élus appuient massivement cette idée parce que la plupart des fonds de leur campagne électorale provient de ces personnes très riches, leurs employés et autres agents. C'est un système auto-renforçant. Le super-riche contrôle le gouvernement, qui (avec les super-riches et leurs sociétés) contrôle le public, ce qui réduit les possibilités économiques pour eux. Le résultat final est un renforcement institutionnel de l'extrême inégalité des richesses, qui devient de plus en plus extrême.

Les milliardaires sont les vrais Big Brother. Et Bezos est le plus grand de tous.

Auteur: Zuesse Eric

Info: https://consortiumnews.com, Août 2019

[ mondialisation ]

 

Commentaires: 0

Ajouté à la BD par miguel