Citation
Catégorie
Tag – étiquette
Auteur
Info



nb max de mots
nb min de mots
trier par
Dictionnaire analogique intriqué pour extraits. Recherche mots ou phrases tous azimuts. Aussi outil de précision sémantique et de réflexion communautaire. Voir la rubrique mode d'emploi. Jetez un oeil à la colonne "chaînes". ATTENTION, faire une REINITIALISATION après  une recherche complexe. Et utilisez le nuage de corrélats !!!!..... Lire la suite >>
Résultat(s): 25
Temps de recherche: 0.0578s

travail intellectuel

Une spécificité du savoir mathématique est que les mathématiciens sont les seuls scientifiques à avoir une notion bien définie de "vrai". Pour un mathématicien, un énoncé qui est vrai est un énoncé qui est démontré. Malheureusement, cela dit aussi que le savoir mathématique, à supposer que cela ait un sens, est un savoir conditionnel, c'est-à-dire conditionné à des hypothèses. Un mathématicien ne dit pas "je sais", mais "je sais que telle hypothèse entraîne telle conclusion". Il ne se contente pas de dire "je sais", il le démontre. Ainsi, l'un des maîtres mots en mathématiques est "démonstration". On n'est donc plus seulement dans le registre du savoir, au sens d'encyclopédie, de liste officielle des choses que l'on sait, mais aussi dans le registre du faire. On dit, : "faire une démonstration".

Auteur: Voisin Claire

Info: in "Faire des mathématiques", éd. cnrs, p. 7

[ certitude ] [ preuve ] [ praxis ] [ logique formelle ] [ raisonnement ]

 

Commentaires: 0

Ajouté à la BD par Benslama

ouverture

De nombreuses hypothèses proposées par des scientifiques et des non-scientifiques se révèlent erronées. Mais la science est une entreprise qui se corrige d'elle-même. Pour être acceptées, toutes les nouvelles idées doivent résister à des normes rigoureuses de preuve. Le pire aspect de l'affaire Velikovsky n'est pas que ses hypothèses étaient erronées ou en contradiction avec des faits fermement établis, mais que certains, qui se disaient scientifiques, ont tenté de supprimer les travaux de Velikovsky. La science est née et s'est consacrée au libre examen : l'idée que toute hypothèse, aussi étrange soit-elle, mérite d'être examinée en fonction de ses mérites. La suppression d'idées gênantes peut être courante dans la religion et la politique, mais ce n'est pas la voie de la connaissance ; elle n'a pas sa place dans l'effort de la science. Nous ne savons pas à l'avance qui découvrira de nouvelles idées fondamentales.

Auteur: Sagan Carl

Info: Cosmos

[ rejet sans examen ]

 

Commentaires: 0

Ajouté à la BD par miguel

aptitudes humaines

Notre cerveau n'est donc pas simplement soumis passivement aux entrées sensorielles. Dès le départ, il possède déjà un ensemble d'hypothèses abstraites, une sagesse accumulée qui a émergé au fil de l'évolution darwinienne et qu'il projette désormais sur le monde extérieur. Tous les scientifiques ne sont pas d'accord avec cette idée, mais je considère qu'il s'agit d'un point central : la philosophie empiriste naïve qui sous-tend de nombreux réseaux neuronaux artificiels actuels est erronée. Il n'est tout simplement pas vrai que nous naissons avec des circuits complètement désorganisés et dépourvus de toute connaissance, qui reçoivent ensuite l'empreinte de leur environnement. L'apprentissage, chez l'homme et la machine, part toujours d'un ensemble d'hypothèses a priori, qui sont projetées sur les données entrantes, et parmi lesquelles le système sélectionne celles qui sont les mieux adaptées à l'environnement actuel. Comme le dit Jean-Pierre Changeux dans son livre à succès Neuronal Man (1985), Apprendre c'est éliminer.

Auteur: Dehaene Stanislas

Info: How We Learn: Why Brains Learn Better Than Any Machine... for Now

[ prédispositions biologiques ] [ atavismes ]

 

Commentaires: 0

Ajouté à la BD par miguel

nanomonde

Une découverte pourrait bouleverser un principe fondamental de la physique des particules 

L’une des règles fondamentales qui régissent le champ de la physique explique que les particules de charges opposées vont s’attirer, tandis que celles dont la charge est identique vont se repousser. Un principe qui, en réalité, peut être démenti, comme le dévoilent des chercheurs de l’université britannique d’Oxford dans une récente étude.

La science physique est régie par un certain nombre de règles fondamentales. L’un de ces principes établit que les particules peuvent être dotées d’une charge positive ou négative, qui va dicter leur comportement en présence d’autres particules.

Ainsi, si vous mettez en présence deux particules qui ont des charges opposées, elles vont s’attirer. En revanche, celles qui possèdent la même charge vont se repousser. Cette force électrostatique, connue sous le nom de "loi de Coulomb", se fait plus forte au fur et à mesure que la charge totale augmente et que les particules se rapprochent.

Néanmoins, des chercheurs de l’université d’Oxford (Royaume-Uni) ont récemment découvert que, dans certaines circonstances, les particules pouvaient attirer celles de la même charge. Ces exceptions ont été évoquées dans une étude parue le 1er mars dans la revue scientifique Nature Nanotechnology.

Une nouvelle force d’attraction découverte

Dans le détail, les scientifiques qui ont pris part à cette étude ont appris qu’il existait des particules chargées qui, lorsqu’elles se retrouvent en suspension dans certaines solutions, vont attirer des particules de même charge. Il arrive même que cela se produise sur des distances relativement longues, précisent les experts, qui ont aussi remarqué que les particules chargées positivement et négativement se comportaient différemment selon les solutions.

L’équipe, qui a réalisé divers tests, a mis en suspension des microparticules de silice chargées négativement dans l’eau. Une opération qui a démontré aux spécialistes que, sous un certain niveau de pH, ces particules pouvaient s’attirer les unes les autres pour former des amas de forme hexagonale. Un constat qui, a priori, viole le principe électromagnétique de base selon lequel les particules de même charge sont répulsives à n’importe quelle distance.

La structure des solvants au cœur de cette étude

Dans un second temps, les universitaires ont décidé d’étudier cet effet en adoptant une autre stratégie. Cette fois-ci, ils ont eu recours à une théorie des interactions interparticulaires qui prend en compte la structure du solvant. Cette technique s’est avérée payante, puisqu’ils ont mis au jour une nouvelle force d’attraction, capable de vaincre la répulsion électrostatique.

Or, ce n’était pas le cas en ce qui concerne les particules de silice aminée chargées positivement. Quel que soit le pH, cette interaction reste en effet répulsive dans l’eau. Les chercheurs, désireux de savoir s’il était possible d’inverser la situation, ont découvert qu’en utilisant un solvant différent (des alcools, en l’occurrence), les particules négatives restaient répulsives, tandis que les particules chargées positivement se regroupaient.

Aux yeux des auteurs de cette étude, ces enseignements sont tout sauf anecdotiques. Ils pourraient, en effet, inciter leurs pairs à repenser considérablement les hypothèses formulées à ce jour dans ce domaine. Ces apprentissages pourraient également être mis en pratique dans le champ de la chimie et intervenir dans divers processus, tels que l’autoassemblage, la cristallisation et la séparation de phases. 

Auteur: Internet

Info: Sur geo.fr, Charline Vergne, 5 mars 2024

[ aimantation ] [ renversement ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

astrophysique

Un monde extraterrestre plus dense que l’acier perturbe notre compréhension de la formation des planètes

Une exoplanète étrangement dense située à plus de 500 années-lumière de la Terre remet en question la compréhension des scientifiques sur la formation des planètes. Ce corps astronomique, récemment décrit dans Nature , a la taille de la géante de glace Neptune mais est près de 10 fois plus lourd, ce qui signifie qu'il est plus dense que l'acier.

"Il est impossible qu'une planète comme celle-ci se soit formée selon les modèles classiques de formation planétaire", déclare Luca Naponiello, auteur principal de l'étude et titulaire d'un doctorat. candidat à l'Université de Rome Tor Vergata. Nommée TOI-1853 b, la planète est également étrangement proche de son soleil ; elle tourne autour de l’étoile une fois tous les 1,24 jours. Les mondes de la taille de Neptune sont si rarement trouvés sur des orbites aussi étroites que les astronomes ont qualifié ces zones rares de planètes de " déserts chauds neptuniens ".

Le plus grand mystère, cependant, est de savoir comment TOI-1853 b est devenue si dense. Les astronomes pensent que les planètes se forment généralement " de bas en haut ", avec des grains de roche et de poussière dans un disque protoplanétaire tourbillonnant qui se superposent les uns aux autres en amas de plus en plus grands, pour finalement assembler un gros noyau. Mais lorsque ce noyau atteint une certaine masse critique, une accumulation de pression dans le disque protoplanétaire commence à repousser les matériaux de construction planétaires supplémentaires, étouffant ainsi la croissance future. TOI-1853 b semble avoir dépassé cette limite : il contient deux fois plus de matière solide que les chercheurs pensaient pouvoir accumuler en un seul objet.

Si les modèles conventionnels ne peuvent pas expliquer TOI-1853 b, qu’est-ce qui le peut ? Naponiello et ses co-auteurs proposent deux possibilités. Premièrement, la planète pourrait être issue de la collision de deux protoplanètes préexistantes. De telles collisions sont attendues dans les premières époques d'un système planétaire, mais elles sont plus susceptibles de laisser derrière elles plusieurs planètes que de donner naissance à un monde unique et plus vaste, explique Naponiello.

La deuxième possibilité est que TOI-1853 b a commencé comme une géante gazeuse de la masse de Jupiter avant de perdre la majeure partie de son atmosphère à cause d'un rayonnement stellaire intense, pour finir comme un noyau solide dépouillé. En effet, si cette planète possédait autrefois une atmosphère importante, il en reste très peu. Cela la rend unique, même parmi les planètes de la taille de Neptune, explique l'astronome Chelsea Huang de l'Université australienne du Queensland du Sud. Huang trouve la théorie des géantes gazeuses particulièrement intrigante, dans la mesure où l'atmosphère épaisse de ces planètes obscurcit généralement ce qui se passe plus profondément à l'intérieur. Si TOI-1853 b était autrefois une géante gazeuse, alors « c'est la seule façon dont nous pouvons réellement observer l'intérieur [d'une géante gazeuse] », explique Huang.

Une analyse future de l'atmosphère restante de la planète pourrait révéler si l'une ou l'autre de ces hypothèses est correcte. Si TOI-1853 b s'était formé à la suite de collisions, les chercheurs s'attendraient à ce que son atmosphère contienne de l'eau et d'autres composés volatils. S’il s’agissait autrefois d’une géante gazeuse, ils s’attendraient à voir une atmosphère relativement mince et dominée par l’hydrogène. 



 

Auteur: Gasparini Allison

Info: https://www.scientificamerican.com, janvier 2024

[ insolite ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

machine pensante

Cette IA de Deepmind pourrait révolutionner les maths et " repousser les frontières de la connaissance humaine "

DeepMind vient de frapper un grand coup : le laboratoire d'IA de Google a annoncé en janvier avoir développé AlphaGeometry, une intelligence artificielle révolutionnaire capable de rivaliser avec les médaillés d'or des Olympiades internationales dans la résolution de problèmes de géométrie. Si cela ne vous parle pas, sachez que les médailles Fields - Terence Tao, Maryam Mirzakhani et Grigori Perelman - ont tous les trois été médaillés d'or lors de cette compétition annuelle de mathématiques qui fait s'affronter les meilleurs collégiens et lycéens du monde. Or, AlphaGeometry a résolu avec succès 25 des 30 problèmes de géométrie de l'Olympiade, se rapprochant ainsi du score moyen des médaillés d'or humains. C'est 15 de plus que son prédécesseur. Mais comment les scientifiques de DeepMind ont-ils accompli un tel exploit ?

L'approche neuro-symbolique, la petite révolution de l'IA

AlphaGeometry est le fruit d'une approche neuro-symbolique, combinant un modèle de langage neuronal (MLN) et un moteur de déduction symbolique (MDS).

Les MLN sont des réseaux de neurones artificiels entraînés sur de vastes ensembles de données textuelles. Ils sont capables d'apprendre et de reconnaître des schémas et des structures dans les données textuelles, ce qui leur permet de générer du texte cohérent et de comprendre le langage naturel. Les MDS sont, pour leur part, particulièrement efficaces pour traiter des problèmes qui nécessitent une manipulation formelle des symboles et des règles logiques.

L'approche neuro-symbolique permet de faire travailler ces deux composantes en tandem : dans le cadre d'AlphaGeometry, le MLN prédit des constructions géométriques potentiellement utiles, puis le MDS utilise ces prédictions pour guider la résolution du problème. Cette combinaison offre à l'IA les capacités intuitives des réseaux de neurones et la rigueur logique des moteurs de déduction symbolique, ce qui lui permet de résoudre efficacement des problèmes de géométrie complexes.

Pour surmonter le manque de problèmes mathématiques de niveau Olympiades qui auraient dû servir de données d'entraînement à AlphaGeometry, les chercheurs ont développé une méthode innovante de génération de données synthétiques à grande échelle, permettant au génial bébé de DeepMind de s'entraîner sur un ensemble de 100 millions d'exemples uniques.

(Image : Alphageometry résoud un problème simple...) 

Mission : repousser les frontières de la connaissance

Cette réalisation marque une avancée significative dans le développement de systèmes d'IA capables de raisonner et de résoudre des problèmes mathématiques complexes, rapportent les chercheurs de DeepMind dans un article paru dans Nature en février dernier. Bien que présentant des résultats impressionnants, AlphaGeometry se heurte tout de même à quelques défis, notamment celui de s'adapter à des scénarios mathématiques de plus en plus complexes et à mobiliser ses compétences dans des domaines mathématiques autres que la géométrie. 

Malgré tout, cette avancée ouvre la voie à d'extraordinaires possibilités dans les domaines des mathématiques, des sciences et de l'IA. Ses créateurs ne cachent d'ailleurs pas leur ambition : " Notre objectif à long terme reste de construire des IA capables de transférer leurs compétences et leurs connaissances dans tous les domaines mathématiques en développant la résolution de problèmes et le raisonnement sophistiqués dont dépendront les systèmes d'IA généraux ", assènent Trieu Trinh et Thang Luong, les responsables du projet dans un communiqué. 

Le ton est donné : autrement dit, les systèmes d'IA développés par DeepMind doivent acquérir des capacités de résolution de problèmes sophistiquées et de raisonnement, ce qui implique la capacité à identifier des schémas, à formuler des hypothèses, à déduire des conclusions et à prendre des décisions logiques dans des contextes variés. Le tout en " repoussant les frontières de la connaissance humaine ". Très ambitieux, mais peut-être pas impossible.

Auteur: Internet

Info: https://www.futura-sciences.com/ - mars 2024

[ robot intelligent ] [ historique ]

 
Mis dans la chaine

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

sciences

Les ordinateurs peuvent-ils être créatifs? Le projet WHIM ("What-if Machine"), financé par l'UE, génère non seulement des scénarios fictifs mais évalue également leur potentiel attractif et d'utilisation. Il représente une avancée majeure dans le domaine de la créativité informatique. La science ignore bien souvent le monde du fantastique, mais les choses changent avec le projet WHIM qui porte bien son nom (en anglais, "whim" signifie fantaisie). Ce projet ambitieux élabore un système logiciel capable d'inventer et d'évaluer des idées imaginaires. "WHIM est un antidote à l'intelligence artificielle traditionnelle, qui est obsédée par la réalité", déclare Simon Colton, coordinateur du projet et professeur en créativité informatique au Goldsmiths College, à l'université de Londres. "Nous faisons partie des premiers à appliquer l'intelligence artificielle à la fiction". L'acronyme du projet signifie What-If Machine. C'est également le nom du premier logiciel de conception de fictions au monde, par un processus d'idéation (processus créatif de production, de développement et de communication de nouvelles idées) développé dans le cadre du projet. Le logiciel génère des mini-récits fictifs en utilisant des techniques de traitement du langage et une base de données des faits trouvés sur le web (qui sert de référentiel de faits "réels"). Le logiciel intervertit ou déforme ensuite les faits pour créer des scripts hypothétiques. Le résultat est souvent absurde: "Que se passerait-il si une femme se réveillait dans une allée après avoir été transformée en chat, mais tout en étant toujours capable de faire du vélo ?" Les ordinateurs peuvent-ils juger la créativité ? WHIM est bien plus qu'une simple machine génératrice d'idées. Le logiciel cherche également à évaluer le potentiel d'utilisation ou la qualité des idées générées. En effet, ces dernières sont destinées à un usage par le public, et les impressions du public ont été sondées avec des expériences participatives (crowdsourcing). Par exemple, les personnes interrogées ont fait part de leurs impressions générales, précisant également aux chercheurs du projet WHIM si les scripts imaginaires produits étaient, selon elles, innovants et avaient un bon potentiel narratif. Au moyen de techniques d'apprentissage automatique, conçues par des chercheurs de l'institut Jozef Stefan de Ljubljana, le système acquiert progressivement une compréhension plus précise des préférences du public. "On pourrait dire que la fiction est subjective, mais il existe des schémas communs", déclare le professeur Colton. "Si 99 % du public pense qu'un humoriste est amusant, alors nous pourrions dire que l'humoriste est amusant, au moins selon la perception de la majorité". Ce n'est que le début Générer des mini-récits fictifs ne constitue qu'un aspect du projet. Des chercheurs de l'Universidad Complutense Madrid transforment les mini-récits en scripts narratifs complets, qui pourraient mieux convenir pour l'intrigue d'un film par exemple. Parallèlement, des chercheurs de l'University College Dublin tentent d'entraîner les ordinateurs à produire des idées et paradoxes métaphoriques en inversant et opposant des stéréotypes trouvés sur le web, tandis que des chercheurs de l'Université de Cambridge explorent l'ensemble du web à des fins de création d'idées. Tous ces travaux devraient engendrer de meilleures idées imaginaires plus complètes. Plus qu'une simple fantaisie Bien que les idées imaginaires générées puissent être fantaisistes, WHIM s'appuie sur un processus scientifique solide. Il fait partie du domaine émergent de la créativité informatique, une matière interdisciplinaire fascinante située à l'intersection de l'intelligence artificielle, la psychologie cognitive, la philosophie et les arts. WHIM peut avoir des applications dans plusieurs domaines. Une des initiatives envisage de transformer les récits en jeux vidéo. Une autre initiative majeure implique la conception informatique d'une production de théâtre musicale: le scénario, le décor et la musique. Le processus complet est en cours de filmage pour un documentaire. WHIM pourrait également s'appliquer à des domaines non artistiques. Par exemple, il pourrait être utilisé par des modérateurs lors de conférences scientifiques pour sonder les participants en leur posant des questions destinées à explorer différentes hypothèses ou cas de figure. L'UE a accordé 1,7 million d'euros de financement au projet WHIM, actif d'octobre 2013 à septembre 2016.

Auteur: Internet

Info:

[ homme-machine ] [ informatique ] [ créativité ]

 

Commentaires: 0

sciences physiques

Le CERN relance la recherche des " particules fantômes " de l'Univers

Les scientifiques européens du CERN vont lancer la construction d'un nouvel accélérateur de particules, dans l'espoir d'identifier enfin les "particules cachées" de l'Univers.

Les scientifiques du plus grand accélérateur de particules du monde vont disposer d'un nouvel outil qui, selon les chercheurs, pourrait les aider à découvrir la face cachée de l'Univers.

L'Organisation européenne pour la recherche nucléaire (CERN) va entamer la construction d'un nouveau supercollisionneur, le "Futur collisionneur circulaire", qui sera 1 000 fois plus sensible aux particules dites "cachées", ou "fantômes", que l'équipement actuel utilisé par l'organisation.

Les accélérateurs de particules permettent aux scientifiques de recréer les conditions du Big Bang, la théorie physique qui décrit l'apparition de l'Univers.

Dans ce nouvel appareil, les particules seront projetées contre une surface solide, et non plus les unes contre les autres comme dans les accélérateurs actuels

Le collisionneur fait partie du projet SHiP (Search for Hidden Particles) du CERN, un projet en gestation depuis dix ans qui permettra d'étudier certaines des particules les plus discrètes de l'espace.

Richard Jacobsson, physicien principal au CERN, affirme que ce projet pourrait constituer une "avancée considérable" qui redéfinirait la compréhension de la création de l'Univers.

" SHiP est l'une de ces expériences qui pourraient changer le paradigme scientifique et nous faire entrer dans un tout nouveau domaine de connaissances, non seulement sur notre Univers, mais aussi sur notre position dans celui-ci", avance Richard Jacobsson lors d'une interview.

"La plupart des hypothèses que nous avons formulées jusqu'à présent pourraient être réévaluées".

Selon le physicien, les scientifiques n'ont jamais réussi à détecter ce type de particules, car ils ne disposaient pas de la technologie adéquate.

Que sont les particules fantômes ?

D'après Richard Jacobsson, tout ce que nous pouvons voir à l'œil nu depuis l'espace, y compris les étoiles et les planètes, représente environ 5 % de la matière réelle de l'Univers.

Les 95 % restants se répartissent, selon les connaissances actuelles, entre environ 26 % de matière noire et 69 % d'énergie noire, selon le physicien.

Les scientifiques utilisent actuellement le "modèle standard", qui comprend 17 particules différentes, pour expliquer la composition de l'Univers.

En 2012, les scientifiques du CERN ont découvert une nouvelle particule du modèle standard, le boson de Higgs, grâce au Grand collisionneur de hadrons, une découverte qui leur a valu le prix Nobel de physique un an plus tard.

Depuis, les tentatives d'utiliser ce même collisionneur pour mesurer les particules cachées - qui pourraient également constituer la matière noire et l'énergie noire, mais ne font pas partie du modèle standard - se sont toutes soldées par des échecs.

" La découverte du boson de Higgs a comblé un vide sans pour autant prédire quelque chose de nouveau", déclare Richard Jacobsson.

"L'idée de ce projet est née presque par hasard, d'un partenariat entre des personnes issues de différents domaines et désireuses d'explorer la physique sous un autre angle".

Les particules "cachées" ou "fantômes" sont invisibles et ont des connexions physiques plus faibles que les particules déjà découvertes, ce qui les rend difficiles à détecter.

Le Grand collisionneur de hadrons du CERN peut détecter les particules jusqu'à un mètre du site de la collision, mais les particules cachées restent invisibles beaucoup plus longtemps avant de se révéler.

Les détecteurs du nouveau collisionneur du projet SHiP seront donc placés plus loin et produiront davantage de collisions sur une toile de fond fixe afin d'identifier plus facilement ces particules.

La construction des nouvelles installations souterraines du SHiP débutera en 2026 et les premières expériences pourraient avoir lieu vers 2032.

Le futur collisionneur circulaire, quant à lui, sera mis en service dans le courant des années 2040, mais n'atteindra son plein potentiel qu'en 2070, selon des informations rapport de la BBC.

Auteur: Internet

Info: https://fr.euronews.com/ - Anna Desmarais,  26 mars 2024

[ infra-monde ] [ sub-particules élémentaires ]

 

Commentaires: 0

Ajouté à la BD par Le sous-projectionniste

anthropologie

Lorsque Guénon écrivait, ni l’histoire de la Terre ni celle des peuples sans écriture n’était connue et ce type de considérations alimentait les réflexions de la plupart des ésotéristes. On a commencé de voir clair dans notre passé profond après sa mort. Chose étrange, ce que nous apprennent la géologie et la paléontologie résonne encore plus fortement avec les légendes de l’Asie centrale et du moyen-orient.
Les analyses génétiques des populations montrent la réalité de plusieurs exodes, dont les premiers ont pu avoir eu lieu dès l’apparition de l’homme dit "moderne" ou Homo sapiens sapiens, en d’autres termes nous-mêmes. L’homme de Néandertal, qui nous a précédés, était apparu environ 250 000 ans avant notre ère, au paléolithique moyen. Nous sommes alors à la fin de la glaciation de Mindel et l’expansion de Néandertal en Europe et en Asie profite d’un réchauffement peu accentué et qui ne dure pas plus d’une centaine de milliers d’années. À peine 100 000 ans plus tard, nos premiers parents génétiques sont présents. L’homme "moderne" apparu vers -200 000, juste avant la glaciation de Riss, une des plus sévères, va rester aux alentours de l’équateur jusqu’au réchauffement suivant qui commence vers 130 000. Le printemps éternel de Herschel pourrait y correspondre dans les régions circumpolaires. En effet, la température moyenne de la Terre atteint alors 4° au dessus de la moyenne actuelle, les eaux montent d’environ 3 mètres alors qu’elles étaient plus basses de 100 mètres – ce qui n’est pas rien – au plus fort de la glaciation de Riss. Vers -80 000, le climat se refroidit de nouveau sévèrement et, semble-t-il, très rapidement, en quelques années. Au plus fort de cette phase qui correspond dans les Alpes à la première période de la glaciation de Würm, les températures sont inférieures de 6° à la moyenne actuelle et le niveau des mers baisse de 120 mètres. Nous avons alors deux humanités sur notre planète, Néandertal et l’homme moderne, notre ancêtre direct.
Où sont-ils ? Quels sont leurs territoires respectifs ? Pour Néandertal, nous savons désormais qu’il n’a pas côtoyé l’homme moderne en Afrique. Par contre, il l’a rencontré en Europe et en Asie. On pensait jusqu’à ces dernières années qu’il s’agissait de deux espèces distinctes, incapables d’avoir une descendance commune, mais les études génétiques ont montré qu’il y avait eu des croisements et que les peuples de toute l’Eurasie portent encore aujourd’hui des gènes légués par les néandertaliens, des gènes importants puisqu’ils conditionnent en partie notre système immunitaire, notre réponse aux maladies. Néandertal disparaît assez brutalement vers -28 000, sans que l’on sache très bien expliquer ce remplacement drastique. Certains chercheurs sont d’avis que Néandertal aurait pu correspondre à l’Abel biblique tandis que les hommes actuels, selon les lois de succession cycliques, s’identifiaient à Caïn et à sa descendance. Toutefois, dans la Bible, Abel s’assimile à une tradition pastorale de bergers nomades tandis que Caïn désigne les premiers agriculteurs et constructeurs de complexes urbains, ce que n’a pas manqué de développer René Guénon dans l’article qu’il leur a consacré ; il les qualifie respectivement de "contemplatifs" et de "guerriers". Cette distinction pasteurs/cultivateurs n’a pas de sens avant le néolithique, donc avant la sortie de l’âge glaciaire. Toutefois, les preuves génétiques d’un croisement entre Neandertal, déjà présent sur le continent eurasiatique et homme moderne pourrait avoir laissé des traces dans la mémoire collective – faut-il y voir l’origine du mythe de la chute des Anges attirés par la beauté des filles des hommes ? (...)
Certains ésotéristes pensent aujourd’hui que Néandertal désignait peut-être les anciens Hyperboréens. Cette thèse ne manque pas d’intérêt car il a traversé deux glaciations et sa morphologie semble avoir été particulièrement adaptée au froid. Il aurait donc pu se réfugier dans les zones péri-arctiques lors de l’intervalle chaud de l’interglaciaire Riss-Würm. L’idée a été reprise par le musicien de Black Metal Varg Vikernes du groupe Burzum qui rattache l’homme de Néandertal à une tradition ouranienne et polaire qu’il relie au mythe de Thulé et au royaume mythique de l’Amenti, patrie boréale originelle des premiers rois Égyptiens, descendants d’Osiris.

Auteur: Anonyme

Info: Dans "Les magiciens du nouveau siècle"

[ hypothèses scientifiques ] [ archéologie mystérieuse ]

 

Commentaires: 0

Ajouté à la BD par Coli Masson

matérialogie

La plupart des matériaux semblent suivre une mystérieuse " règle de quatre ", que les chercheurs ne comprennent toujours pas 

La découverte de régularités et de corrélations dans des données enthousiasme généralement les scientifiques, du moins lorsqu’ils peuvent l’expliquer. Dans le cas contraire, il arrive d’estimer que les données présentent des biais ayant mené à l’apparition de telles corrélations, faisant de l’étude un véritable casse-tête. Ces défauts dans les données sont communément appelés " artefacts expérimentaux ". Récemment, des chercheurs de l’École Polytechnique Fédérale de Lausanne (EPFL), après avoir constaté que la structure de base de la majorité des matériaux inorganiques suit une étrange " règle de quatre ", n’ont pas réussi à trouver d’explication à ce schéma (impliquant une ou plusieurs corrélations inexpliquées).

Tout est parti de l’analyse de deux bases de données largement utilisées sur les structures électroniques (Materials Project et Materials Cloud3-Dimensional). Ces deux collections comprennent environ 80 000 structures électroniques de matériaux expérimentaux et prédits. En principe, tous les types de structures électroniques devraient être présentés de manière égale. Cependant, les résultats ont révélé que cela est loin d’être le cas.

Les scientifiques ont en effet constaté que 60 % des matériaux possèdent une cellule unitaire primitive (la cellule la plus petite dans une structure cristalline) constituée d’un multiple de 4 atomes. Cette récurrence est appelée " règle de quatre " par la communauté scientifique.

Des difficultés à trouver une explication définitive

Comme les scientifiques ont tendance à le faire, l’équipe de recherche en question (EPFL), dirigée par Nicola Marzari, a tenté de trouver des explications à ce schéma inattendu. Au départ, les chercheurs ont estimé que l’émergence d’un tel modèle signifiait qu’il y avait un biais quelque part dans les données.

Une première raison intuitive pourrait venir du fait que lorsqu’une cellule unitaire conventionnelle (une cellule plus grande que la cellule primitive, représentant la pleine symétrie du cristal) est transformée en cellule primitive, le nombre d’atomes est typiquement réduit de quatre fois ", a déclaré Elena Gazzarrini, ancienne chercheuse à l’EPFL et travaillant actuellement au CERN (Genève). " La première question que nous nous sommes posée visait à déterminer si le logiciel utilisé pour transformer en cellule primitive la cellule unitaire l’avait fait correctement, et la réponse était oui ", poursuit-elle.

Une fois la piste des erreurs évidentes écartée, les chercheurs ont effectué des analyses approfondies pour tenter d’expliquer la " règle de quatre ". L’équipe s’est alors interrogée si le facteur commun pouvait être le silicium, étant donné qu’il peut lier 4 atomes à son atome central. " Nous pourrions nous attendre à constater que tous les matériaux suivant cette règle de quatre incluent du silicium ", a expliqué Gazzarrini. Malheureusement, cela n’est pas le cas.

Gazzarrini et son équipe se sont alors basés sur les énergies de formation des composés. « Les matériaux les plus abondants dans la nature devraient être les plus énergétiquement favorisés, c’est-à-dire les plus stables, ceux avec une énergie de formation négative », explique Gazzarini. " Mais ce que nous avons constaté avec les méthodes informatiques classiques, c’est qu’il n’y avait aucune corrélation entre la règle de quatre et les énergies de formation négatives ".

En considérant ces constats, Gazzarrini a envisagé la possibilité qu’une analyse plus fine recherchant une corrélation entre les énergies de formation et les propriétés chimiques puisse fournir une explication à cette règle de quatre. Ainsi, l’équipe a fait appel à l’expertise de Rose Cernosky de l’Université du Wisconsin, experte en apprentissage automatique, pour créer un algorithme d’analyse plus puissant. L’algorithme en question regroupait notamment les structures en fonction de leurs propriétés atomiques. Ensemble, Cernosky et l’équipe de Gazzarrini ont ensuite examiné les énergies de formation au sein de classes de matériaux partageant certaines similitudes chimiques. Cependant, une fois de plus, cette nouvelle approche n’a pas permis de distinguer les matériaux conformes à la règle de quatre de ceux qui ne le sont pas.

Un mystère persistant, mais qui mène vers une découverte prometteuse

Bien que jusqu’à présent l’équipe n’a pas pu résoudre l’énigme de la règle de quatre, elle a toutefois fait une belle avancée : l’exclusion de plusieurs hypothèses logiques. Les chercheurs ont également fait une découverte prometteuse (la règle de quatre), qui pourrait servir à des études futures sur ce phénomène structurel.

En effet, avec un algorithme Random Forest, le groupe est en mesure de prédire avec 87 % de précision si un composé suit la règle de quatre ou non. " C’est intéressant, car l’algorithme utilise uniquement des descripteurs de symétrie locaux plutôt que globaux ", déclare Gazzarrini. " Ceci suggère qu’il pourrait y avoir de petits groupes chimiques dans les cellules (encore à découvrir) qui pourraient expliquer la règle de quatre ", a-t-elle conclu.



 

Auteur: Internet

Info: https://trustmyscience.com/ - Kareen Fontaine & J. Paiano·24 avril 2024 - Source : NPJ Computational materials

[ interrogation ] [ tétravalence ] [ physique appliquée ]

 

Commentaires: 0

Ajouté à la BD par miguel